Les algorithmes contre la société, un danger sous-estimé ?

Les éditions La Fabrique publient Les algorithmes contre la société, du journaliste spécialiste des systèmes techniques et numériques Hubert Guillaud. L’essai explore l’impact des algorithmes sur divers aspects de la vie, en soulignant les risques de discrimination, de perte de droits et de contrôle accru par des acteurs privés.

Séquences d’instructions conçues pour traiter des données et optimiser des processus, les algorithmes sont désormais omniprésents et suscitent un questionnement fondamental : comment ces outils, initialement destinés à faciliter nos vies, en viennent-ils à façonner notre perception du monde et à redéfinir les dynamiques sociales ? La transparence, l’équité et la responsabilité sociale de ces dispositifs numériques qui promettent efficacité et personnalisation se heurtent à des phénomènes d’uniformisation, des biais et des mécanismes d’exploitation commerciale dont on peine encore à mesurer les effets. Cette dualité intrinsèque conduit Hubert Guillaud à interroger notre rapport à ces technologies : comment garantir que les algorithmes reflètent avec justesse l’expérience humaine sans réduire celle-ci à des modèles simplistes ? Deux éléments de mise en garde vont alors prédominer : non seulement « le capitalisme de surveillance sait tout de nous, alors que ses opérations sont conçues pour que nous n’en sachions rien », mais pis, « les algorithmes sont des opinions encapsulées dans du code ».

Développons. Hubert Guillaud soutient que les algorithmes manquent de neutralité. Ils reflètent, par leur nature même, les idéologies et les choix arbitraires de ceux qui les ont créés. Déployés dans des contextes bien spécifiques, souvent néolibéraux, ils servent des objectifs précis, tels que la rationalisation budgétaire, la maximisation des profits et la dématérialisation des services publics. Par conséquent, ils ont des effets concrets sur la société et peuvent exacerber des problèmes tels que les inégalités sociales, sous couvert d’objectivité et d’efficacité. « Le numérique (qu’on parle de logiciels, d’algorithmes ou d’intelligence artificielle, nous sommes dans une même continuité) propose une réponse par le calcul à la crise néolibérale. Il promet de produire des économies d’échelles par le traitement de masse, au bénéfice de ceux qui produisent et imposent ces outils. Tel est l’effet recherché par la symbiose entre le capitalisme et le projet numérique. Derrière l’interconnexion totale, il y a une orientation politique, des « objectifs » assignés au calcul. »

Les algorithmes discriminent en se basant sur des critères prédéterminés, qui peuvent sembler neutres mais qui, en réalité, perpétuent des inégalités existantes. L’auteur rapporte l’exemple des systèmes de notation de CV, qui privilégient certains mots-clés ou expériences, excluant de ce fait des candidats qualifiés mais dont le profil ne correspond pas parfaitement aux attentes algorithmiques. Mais ce n’est pas tout : « Quand on regarde le fonctionnement de Parcoursup, on retrouve les mêmes défaillances que dans d’autres jugements techniques du social. Ces systèmes fonctionnent bien pour les candidats normaux mais surcontrôlent les candidats qui dévient de la norme, avec un biais « pauvrophobe » qui accroît les exigences envers les candidats les plus défavorisés, à l’instar de la prise en compte du comportement pour les filières professionnelles. Et là encore le système de scoring, c’est-à-dire l’évaluation chiffrée des candidatures qui attribue une note à un profil de données, amplifie des micro-distinctions sans que sa pertinence ne soit démontrée. »

De même, les algorithmes utilisés pour attribuer des prestations sociales peuvent automatiser des décisions qui ignorent les situations individuelles complexes, conduisant à des erreurs et à des injustices. La collecte et le croisement de données personnelles, comme l’accès aux comptes bancaires, permettent de procéder à des vérifications au cas par cas et de déclencher des contrôles en cas d’incohérences, accentuant la pression sur les populations les plus stigmatisées. En Australie, « Robodebt a généré des milliers de réclamations indues auprès des bénéficiaires de l’aide sociale [et] a conduit le Sénat à suspendre le système et le gouvernement à rembourser 1,8 milliard de dollars aux bénéficiaires lésés ». L’interconnexion des fichiers et des administrations présente en outre des risques importants pour la vie privée et les droits individuels. Elle met fin au principe de séparation des pouvoirs et des informations, augmentant le danger d’une surveillance de masse et de contrôle social. De plus, elle peut conduire à une révocabilité des droits, recalculés et modifiés en fonction d’objectifs pas toujours clairement avoués.

S’ajoutent à ces écueils les questions d’exhaustivité, d’asymétrie ou de véracité des informations recueillies et traitées par les algorithmes. « L’interconnexion nécessaire pour réaliser la solidarité à la source suppose une amélioration des déclarations qui semble inatteignable. Car les erreurs ne sont pas seulement le fait des bénéficiaires des aides, beaucoup proviennent d’erreurs déclaratives des employeurs, de problèmes de paramétrages des logiciels de paye, de délais de déclaration (toutes les entreprises ne font pas leurs déclarations à date fixe et beaucoup d’informations sont rectifiées le mois suivant). Les périodes de références des différentes aides sont bien plus hétérogènes qu’on le pense. L’illusion d’une fluidité parfaite de l’information alimente le rêve d’une administration proactive qui serait parfaitement calculante. Ce n’est pas le cas. »

Le capitalisme de surveillance collecte en sus nos données personnelles pour mettre en place une infrastructure publicitaire qui finance une grande partie du monde numérique. Nos données sont ainsi utilisées pour prédire nos comportements et nous influencer en tant que consommateurs. Cela peut limiter notre liberté en standardisant et en restreignant nos choix. La logique du calcul reste une logique de pouvoir, et la société du marketing a besoin d’une certaine opacité pour opérer. « La tarification algorithmique est certainement la plus vive expression des asymétries d’information du capitalisme de surveillance », lit-on dans l’essai. « Dans le marketing de surveillance, on vous propose des réductions en échange du droit à collecter vos données, qu’on exploite ensuite pour faire évoluer les prix : la promotion permet de valider le consentement ! Ensuite, chaque segment de clients reçoit des promotions distinctes et des prix personnalisés. »

De quoi parle-t-on au juste ? La tarification dynamique (aussi appelée yield management) ou algorithmique est une pratique commerciale qui consiste à faire varier les prix en fonction du comportement des consommateurs. Elle se base par exemple sur l’historique des clients pour améliorer le ciblage et susciter l’acte d’achat en leur adressant des offres adaptées à leurs besoins et/ou leurs envies. Les prix en deviennent imprévisibles, inéquitables. « Les innovations roulent pour elles-mêmes, dans une logique techno-autoritaire d’autant plus affirmées que les entreprises engagées dans cette course n’ont plus besoin de personne pour faire ce qu’elles veulent, comme elles le veulent, avec des moyens illimités. »

La critique se porte plus directement sur la Silicon Valley, pour son cynisme et son modèle d’entreprise « antisocial ». Plus à droite qu’à gauche, adoptant un cyber-libertarianisme, les entrepreneurs de la tech’ et du numérique auraient selon l’auteur une vision du monde délétère, au nom de laquelle les sociétés ne doivent aucune loyauté à leurs employés et les travailleurs sont considérés au mieux comme des indépendants. Quand ils ne sont pas perçus comme une variable d’ajustement… Il complète : « À terme, cet emballement du modèle commercial pourrait sonner le glas d’un internet appropriable et modifiable par tous, au profit d’une infrastructure dominée et organisée par les géants, où les accès aux machines, aux données et aux calculs dépendront de leur bon vouloir, à l’image des quelques grands modèles d’IA des Gafams dont vont dépendre tous les autres services comme tous nos usages. »

Quelles alternatives Hubert Guillaud propose-t-il alors pour rendre la société du calcul plus juste et équitable ? Il faudrait en premier lieu des chartes, des comités d’éthiques ou des équipes sociologiquement diverses. Mais cela reste insuffisant. Il propose également de faire entrer à la CAF, dans Parcoursup et dans les systèmes d’attribution de prêts bancaires des commissions d’usagers, des conventions citoyennes et des jurys pour initier des dialogues jusqu’ici inexistants. Il plaide en faveur de services publics numériques dotés d’une promesse sociale explicite. Enfin, il préconise des règles d’exclusion et d’interdiction plus strictes, ainsi qu’un renforcement du droit et de la régulation, et promeut la fin des hiérarchies et des binaires, la valorisation des émotions et de l’incarnation, la remise en question des structures de pouvoir. En appliquant ces principes à la conception et à l’évaluation des algorithmes, il est possible de créer des systèmes plus justes et inclusifs, qui tiennent compte de la diversité des expériences et des besoins de chacun.

Car, rappelons-le, les algorithmes « n’ont pas été conduits pour seulement convoyer de l’information, mais comme des mécanismes pour forger des relations de contrôle ». Ce pourquoi Hubert Guillaud argue : « Pas de calcul du social sans accès social à ce calcul. Ce devrait être une règle fondamentale. Ce n’est pas tant la transparence que nous devons exiger que l’ouverture, l’accès aux systèmes et la protection qui l’accompagne. » En somme, Les algorithmes contre la société est un appel à la vigilance et à l’action face aux dangers de l’automatisation et de la marchandisation de nos vies. En déconstruisant la manière dont elles opèrent au quotidien, Hubert Guillaud épingle les IA pour leurs risques de défaillance et leur manque d’à-propos. Il apparaît urgent de se saisir de ces questions.

Fiche produit Amazon

J.F.


Les algorithmes contre la société, Hubert Guillaud – La Fabrique, avril 2025, 192 pages

Comments

Une réponse à « Les algorithmes contre la société, un danger sous-estimé ? »

  1. […] de lecture : “Les algorithmes contre la société, un danger sous-estimé”, Radikult, 4 avril […]

    J’aime

Laisser un commentaire