Ni Dieu ni IA : la grande illusion technologique

Dans Ni Dieu ni IA, l’historien des sciences Mathieu Corteel engage une réflexion critique sur la prolifération des intelligences artificielles dans nos vies, mettant à jour une inquiétante expropriation de notre intelligence collective au profit de machines computationnelles. Paru aux éditions La Découverte, l’ouvrage invite à déconstruire nos fantasmes sur l’IA pour mieux en cerner les réalités et les limites.

Il ne faut pas s’y méprendre : derrière chaque interaction avec une IA générative se cache un mécanisme essentiellement computationnel et probabiliste. Notre tendance à projeter des qualités humaines sur des machines traduirait ainsi moins la puissance des outils numériques que nos propres vulnérabilités psychologiques. Mathieu Corteel rappelle d’ailleurs à dessein de quoi se constituent Chat-GPT et ses avatars : « Un agencement de signes a-signifiants dans une suite d’états probabilitaires. Une combinatoire de symboles qui se dote d’un sens, c’est-à-dire d’une sémantique, une fois externalisée. On ne peut donc pas parler de sentience, alors qu’il n’y a là qu’un jeu hasardeux de signes sans signification pour la machine. »

Le paradoxe de Moravec permet d’illustrer un fossé épistémologique. Il prétend que « le plus difficile en robotique est souvent ce qui est le plus facile pour l’homme ». C’est un fait, les IA excellent dans des tâches calculatoires formelles et complexes, mais échouent souvent face à ce qui relève de l’informel, comme le désir ou l’empathie. Cette distinction est cruciale : l’intelligence artificielle reste fondamentalement allopoïétique – c’est-à-dire produite et structurée par l’extérieur – et incapable d’accéder à une réelle autopoïèse, à l’autonomie radicale d’une pensée consciente d’elle-même. « La modélisation de la langue permet […] de reformuler des phrases dans un contexte linguistique en décomposant une chaîne de données et en la recomposant selon des règles d’assemblage. Mais les fonctions de contextualisation restent purement syntaxiques. Ce sont des IA faibles se faisant passer pour des IA fortes. »

Mathieu Corteel éclaire dans le même élan le malentendu fondamental entretenu par la démultiplication des paramètres des modèles LLM (Large Language Models). Si ces derniers connaissent une explosion spectaculaire (passant de 10⁸ à 10¹² paramètres en quelques années), cette croissance quantitative s’accompagne d’une stagnation qualitative. Le progrès apparent ne relève que d’une sophistication du calcul, non d’une émergence d’intelligence réelle ou de compréhension authentique du monde. « On dispose de calculs de probabilités très sophistiqués pour établir des corrélations et les affiner, mais pas pour définir le sens en soi et pour soi. Autrement dit, une IA peut révéler des liens factuels restés inaperçus, mais ne peut pas les distinguer de fausses corrélations. »

Ni Dieu ni IA expose par ailleurs les risques concrets d’une confiance aveugle dans la computation. En médecine par exemple, la généralisation de diagnostics automatisés pourrait éroder la compétence clinique des médecins, en les réduisant au rang de simples vérificateurs de résultats issus de calculs probabilistes. Mathieu Corteel met en garde contre cette « panacée computationnelle » qui, au lieu d’améliorer et humaniser le soin, pourrait au contraire altérer la relation médicale en transformant le patient en données quantifiables et impersonnelles. 

La « médecine translationnelle » évoquée dans l’essai a tout de la planche de salut sciemment savonnée : pour répondre aux services d’urgences débordés ou aux micro-lésions difficilement détectables à l’œil nu, il faudrait s’en remettre à la puissance de calcul de machines dénuées d’empathie et de contexte, qui dégraderaient les spécialistes hospitaliers en les transformant en chambres d’enregistrement. Pis, le codage de la douleur par des échelles et des métriques aboutirait à des processus qui, in fine, troqueraient l’attention du médecin contre une objectivation purement algorithmique. Peut-on décemment convertir la médecine holistique en écriture binaire ?

Sur le plan sécuritaire, l’auteur critique avec une même acuité les dérives des systèmes tels que PredPol, algorithme de prédiction policière propre à engendrer une boucle infernale d’interpellations préventives. Il montre comment la logique computationnelle entraîne la désindividualisation des suspects, traités comme des agrégats statistiques. Cette « police quantique », comme il l’appelle en faisant référence à l’expérience du chat de Schrödinger, enferme les individus dans une culpabilité probabiliste permanente. En établissant des scores de risque – un indice qui s’affine à mesure que les données de criminalité s’accumulent –, l’algorithme permet d’ajuster la répartition des effectifs de police, en se focalisant avant tout sur les zones a priori criminogènes. « Le regard du physicien quantique est un facteur déterminant de la position des particules, comme celui du policier détermine la position du criminel. D’où la conclusion de Schrödinger : le chat est à la fois mort et vivant. Et la mienne : le dividu est à la fois coupable et non coupable. »

Autre point important : « Le machine learning comporte principalement le risque de biais par le fait d’une confusion entre les corrélations et la réalité, ainsi qu’entre l’apprentissage des règles et la conscience des règles. Lorsque des IA aveugles prêtent leurs yeux aux policiers pour prévoir les crimes, on peut s’attendre à des dérives dangereuses et des contrôles abusifs sur certaines populations. On propage ainsi l’injustice depuis l’erreur algorithmique vers l’erreur policière. On prouve l’existence d’une catégorie par la non-existence de cette catégorie dans les données. »

La chercheuse Joy Buolamwini, étonnée que son visage ne soit pas efficacement reconnu par les machines, a démontré comment les systèmes de reconnaissance faciale reproduisent et amplifient les discriminations raciales et sexistes. Les IA, dépendantes de leurs données d’entraînement, incapables de discernement causal, sont structurellement exposées aux erreurs. Elles ont pourtant des conséquences concrètes sur nos sociétés, alors qu’elles raisonnent sans lien direct avec elles. Cela s’exprime notamment dans la finance, comme le note Mathieu Corteel : « Un article publié dans Nature en 2013 montre que 18 520 krachs boursiers ultrarapides ont eu lieu entre 2006 et 2011. On parle de krachs d’une durée de moins de 650 millisecondes, ce qui correspond à environ deux clins d’œil consécutifs, un mouvement trop rapide pour que la conscience humaine puisse appréhender un tel événement. Pourtant, c’est dans cette infratemporalité des algorithmes que se joue en Bourse une part massive des transactions financières impactant toute notre économie. »

L’auteur clôt sa réflexion en s’interrogeant sur les implications éthiques et sociales de cette délégation accrue de nos capacités aux machines. Le capitalisme cognitif, par la monétisation croissante des données personnelles, accentue cette dépossession. Face à ces enjeux, Mathieu Corteel invite à envisager des formes de régulation innovantes, comme une éventuelle « taxe fantôme » sur l’utilisation intensive des données humaines. Le lecteur, lui, se demande plus prosaïquement si l’homme est désormais condamné à penser en boucle et en biais, soumis à des contenus standards générés par l’IA et/ou exposé à des publications personnalisées sélectionnées par les algorithmes.

Quoi qu’il en soit, Ni Dieu ni IA se veut aussi alarmant que pédagogique. L’essai est précieux pour comprendre ce que nous perdons à mesure que nous confions nos vies à ces puissantes, mais paradoxalement très limitées, intelligences artificielles. 

Fiche produit Amazon

J.F.


Ni Dieu ni IA, Mathieu Corteel – La Découverte, avril 2025, 240 pages


Posted

in

by

Comments

Laisser un commentaire