« Ni dieu ni IA » : un regard sceptique sur l’intelligence artificielle
En l’espace de quelques années, l’intelligence artificielle (IA) s’est immiscée, qu’on le veuille ou non, dans tous les interstices de nos existences. Dissimulée dans les applications qui nous orientent au quotidien, nous divertissent ou font les devoirs à notre place, l’IA optimise même des frappes militaires et propose des conseils dans nos vies amoureuses. Face à cette omniprésence, sait-on pourtant exactement ce qu’est l’IA, comment elle fonctionne, ce qu’elle peut faire – ou défaire – dans nos sociétés ? C’est à ces questions que tente de répondre le philosophe et historien des sciences Mathieu Corteel dans son essai Ni dieu ni IA. Une philosophie sceptique de l’intelligence artificielle, publié aux éditions La Découverte en avril 2025. Plutôt que de céder à l’enthousiasme béat ou au catastrophisme anxieux qui entourent souvent le sujet, l’auteur adopte un scepticisme méthodique pour examiner les promesses et les périls de l’IA.
Couverture de l’essai Ni dieu ni IA de Mathieu Corteel.
Mathieu Corteel, chercheur postdoctoral à Sciences Po et associé à Harvard, inscrit Ni dieu ni IA dans la lignée des grandes critiques contemporaines du numérique. L’ouvrage, dont le titre évoque la formule libertaire « Ni Dieu ni maître », s’attaque à la nouvelle idole technologique qu’est l’IA. Corteel y amorce un voyage critique au cœur des paradoxes de l’IA, invitant le lecteur à “ouvrir le capot” des machines pour en comprendre les rouages cachés. De fait, le livre prend la forme d’une enquête philosophique et technique, jalonnée de cas concrets et de références érudites, qui vise à déconstruire les mythes entourant l’intelligence artificielle. Quelles illusions nourrissons-nous à son sujet ? Quels dangers occultes accompagnent son déploiement ? Et surtout, que risque-t-on à déléguer toujours plus de nos décisions et de notre créativité à des algorithmes ? Autant de questions qui traversent un essai dense, engagé, mais accessible.
Voyage au cœur des mirages de l’IA : résumé des thèses de l’ouvrage
Dès les premières pages, Corteel dresse un constat percutant : les IA ont appris de nous et produisent désormais des contenus à notre place dans presque tous les domaines, de la rédaction d’articles à la création artistique. Nous partageons avec elles nos données, nos souvenirs, nos désirs, sans quasiment aucune limite. Cette intégration diffuse fait émerger une question centrale : « Et si le développement de l’IA conduisait non pas à l’émergence d’une machine consciente […] mais à l’expropriation et à l’exploitation de notre intelligence collective ? ». Autrement dit, plus que la fantasmagorie d’une super-intelligence autonome, c’est la captation de l’intelligence humaine par la machine qui inquiète l’auteur.
Pour explorer cette thèse, Ni dieu ni IA entraîne le lecteur dans un parcours riche en métaphores et en scénarios stimulants. Corteel nous fait croiser en chemin des cerveaux plongés dans des cuves, des robots dactylographes, des perroquets stochastiques ou encore des chatbots psychopathes – autant d’images frappantes qui illustrent les déviances potentielles de l’IA et les fantasmes qu’elle suscite. Derrière l’humour et l’étrangeté de ces figures, l’auteur questionne la tentation de nous déposséder de nos qualités humaines en les projetant dans des machines calculatrices supposées omnipotentes. Le livre interroge ainsi ce que signifie déléguer nos pouvoirs d’action, de création et de décision à des systèmes auxquels nous prêtons – peut-être à tort – une forme de pensée ou d’autonomie.
Chaque chapitre aborde un secteur concret dans lequel l’IA fait irruption, afin d’en examiner les implications. Du travail à l’éducation, de la médecine à la sécurité et la surveillance, Corteel dissèque l’impact de l’automatisation intelligente sur nos pratiques et nos valeurs. Il montre par exemple comment, dans le domaine de la santé, la quête d’une médecine ultra-personnalisée guidée par les big data peut mener à la « mort de la clinique », c’est-à-dire à la mise à l’écart du jugement humain au profit de la statistique. De même, il analyse le mythe d’une police prédictive infaillible : loin de tenir ses promesses, celle-ci s’avère inefficace en pratique et entachée de biais racistes inquiétants. Au fil de l’ouvrage, l’auteur multiplie les cas concrets et les exemples historiques ou actuels, ce qui donne corps à son propos tout en évitant l’abstraction purement théorique. Le lecteur est invité à constater in situ la progression d’une logique algorithmique qui, poussée à l’extrême, menace de submerger le sens humain sous une combinatoire infinie de données et de contenus générés automatiquement. Le résultat est un tableau saisissant d’une intelligence artificielle tour à tour fascinante et inquiétante, dont Corteel s’attache à révéler la face cachée.
Une philosophie sceptique dans la lignée de Descartes et Hume
Pour mener sa critique, Mathieu Corteel mobilise une démarche sceptique inspirée de la grande tradition philosophique, de René Descartes à David Hume. À la manière d’un Descartes modernisé, il commence par douter des évidences et des discours entourant l’IA : est-il vraiment légitime de parler d’“intelligence” ou de “décision” à propos d’algorithmes ? Sommes-nous victimes d’un leurre en anthropomorphisant des machines essentiellement dépourvues de conscience et de morale ? Cette attitude de doute méthodique rappelle le geste cartésien du Discours de la méthode, qui invitait à suspendre ses certitudes pour mieux débusquer les illusions. Corteel l’applique aux objets technologiques d’aujourd’hui, n’hésitant pas à formuler l’hypothèse d’un “démon de l’IA” qui nous abuserait, à l’image du malin génie de Descartes, en nous faisant prendre des simulacres pour des réalités. L’image saisissante des cerveaux dans des cuves – directement empruntée au fameux scénario sceptique du philosophe Hilary Putnam – illustre cette interrogation : et si nos esprits, nourris aux seules interactions virtuelles et aux retours de machines, se retrouvaient aussi déconnectés du réel que ces cerveaux fictifs trompés par une simulation ?
Dans le même esprit, Corteel fait sien le questionnement empiriste de David Hume sur les liens de cause à effet et sur nos propensions à la croyance. Hume avait montré à quel point l’esprit humain est prompt à imaginer des causalités ou des intentions là où il n’y a en réalité que des coïncidences ou des conjonctions de faits. Ni dieu ni IA transpose cette leçon au cas de l’intelligence artificielle : nous projetons volontiers une intention ou une conscience dans des systèmes qui ne font que manipuler des corrélations statistiques. L’ouvrage revient notamment sur l’affaire Blake Lemoine, cet ingénieur convaincu d’avoir décelé une conscience dans l’IA conversationnelle LaMDA de Google. Corteel déconstruit avec finesse ce qu’il appelle le « syndrome Lemoine », montrant comment nos projections anthropomorphiques créent une illusion de conscience là où il n’y a que calcul statistique dénué de sens. En somme, l’auteur exerce un scepticisme salutaire face aux mirages de l’IA, refusant de confondre corrélation et causalité, parole imitée et pensée réelle.
Cette perspective critique s’appuie sur un bagage philosophique et culturel impressionnant. Corteel convoque de nombreuses figures tutélaires pour éclairer son propos : Hume, donc, pour l’analyse des enchaînements causaux trompeurs, mais aussi Henri Bergson lorsqu’il s’agit de réfléchir à la fabrication d’images par la machine, ou Gilles Deleuze pour comprendre les « effets de surface » et simulacres engendrés par la technologiel L’essai ne dédaigne pas non plus les références littéraires : de Alice au pays des merveilles de Lewis Carroll aux textes absurdes de Samuel Beckett, en passant par la célèbre nouvelle La Bibliothèque de Babel de Jorge Luis Borges, Corteel puise dans ces fables des expériences de pensée visionnaires. Borges, par exemple, avait imaginé une bibliothèque infinie contenant tous les livres possibles : une anticipation vertigineuse de l’infobésité et du déluge de données dans lequel nos IA actuelles nous plongent. Ces références croisées, loin d’être de simples ornements, servent un objectif précis : provoquer l’esprit critique par la logique et le paradoxe, et ainsi remettre en question la foi aveugle dans la toute-puissance technologique. Corteel se veut sceptique, mais jamais cynique : il use du doute non pour tout réfuter stérilement, mais pour dissiper les « illusions totémiques » qui entourent l’IA et nous forcer à penser lucidement ses véritables enjeux.
La démarche de Ni dieu ni IA peut également se lire en filigrane comme une réactualisation de la critique de la religion appliquée à la technique. Corteel propose en effet une grille de lecture feuerbachienne de notre rapport à l’IA. Le philosophe Ludwig Feuerbach estimait que l’humanité avait projeté ses propres qualités sur un Dieu imaginaire, s’aliénant ainsi elle-même. De manière analogue, l’IA apparaît chez Corteel comme un miroir déformant dans lequel l’humain place ses facultés (intelligence, créativité, jugement) pour les voir ensuite lui échapper. L’auteur suggère donc de reprendre à l’IA les qualités qu’elle a empruntées à l’humain, sur le modèle du geste proposé par Feuerbach – reprendre à Dieu les qualités humaines dont la religion nous avait dépossédés. Ce motif de la déprojection est au cœur de la philosophie sceptique de Corteel : il s’agit en fin de compte de retrouver le sens de notre propre intelligence, de réaffirmer ce qui fait la spécificité de la pensée et de l’éthique humaines, face à une machine que certains ont trop tendance à élever au rang de divinité moderne. En rappelant que l’IA n’est « ni un Dieu omniscient, ni même une véritable Intelligence » au sens fort, Corteel nous ramène à une saine humilité et à une vigilance rationnelle.
Responsabilité humaine, éthique et pouvoir technologique : la critique socio-politique
Le scepticisme de Mathieu Corteel n’est pas qu’un exercice philosophique abstrait : il débouche sur une critique éthique et politique de l’IA telle qu’elle se développe aujourd’hui. Un des fils conducteurs du livre est la mise en lumière du contexte économique et industriel de l’intelligence artificielle contemporaine. Loin d’être une entité neutre ou magique, l’IA actuelle est avant tout le produit d’un modèle de développement capitaliste fondé sur l’accumulation massive de données et la concentration de pouvoir technologique dans les mains de quelques acteurs privés. Corteel montre comment les géants du numérique – GAFAM et consorts – ont bâti leur domination en s’appropriant nos informations, nos créations et jusqu’à nos interactions sociales, transformant cette intelligence collective en une ressource à exploiter. Ce processus, qu’il qualifie de « capitalisme cognitif » surpuissant, aboutit paradoxalement à une dévaluation de l’intelligence humaine elle-même : plus nos idées, nos œuvres et nos décisions sont préemptées par la machine et monétisées par des tiers, plus l’autonomie de la pensée humaine risque de s’appauvrir. On retrouve là l’inquiétude majeure formulée par l’auteur : l’IA, dans sa trajectoire actuelle, aliène l’intelligence collective bien plus qu’elle ne l’augmente.
Sur le terrain de l’éthique, Ni dieu ni IA insiste sur la nécessité de préserver la responsabilité humaine. Corteel rappelle que les systèmes algorithmiques n’ont aucune moralité intrinsèque – ils sont d’« intrinsèque amoralité » pour reprendre ses termes – et que leur confier des choix de société sans contrôle revient à abdiquer nos valeurs. Il critique notamment l’illusion d’objectivité qui entoure certaines applications de l’IA. Ainsi, lorsqu’une police prédictive prétend orienter l’action des forces de l’ordre, on oublie trop souvent qu’elle peut renforcer des biais discriminatoires présents dans les données : l’auteur cite en exemple le programme déployé à Los Angeles, entaché de biais racistes et finalement peu efficace pour réduire le crime. De même, déléguer à des algorithmes décisionnels des tâches de gestion des ressources humaines ou d’orientation scolaire pose la question de la transparence et de la reddition des comptes : qui est responsable en cas d’erreur ou d’injustice commise par une machine ? Corteel exhorte à ne jamais perdre de vue que derrière l’IA, ce sont des humains qui programment, choisissent les objectifs et supportent les conséquences. Il plaide ainsi pour une vigilance éthique permanente, surtout à l’heure où la frontière entre le réel et le simulacre tend à s’estomper dangereusement.
L’ouvrage aborde également les enjeux de pouvoir et de domination liés à la révolution de l’IA. Corteel dénonce les visions technocratiques qui sacralisent l’IA comme solution miracle à tous les maux contemporains. Il y voit une forme de messianisme technologique qui sert souvent les intérêts des puissants en légitimant une fuite en avant, au détriment d’un véritable débat démocratique. L’auteur met en garde contre la tentation pour les décideurs d’utiliser l’IA comme un instrument de contrôle social. La multiplication des outils de surveillance automatisés, des algorithmes de tri des citoyens ou de notation sociale, sont autant de dérives potentielles déjà visibles qui menacent les libertés publiques. Comme l’a noté un critique, les croyances aveugles de certains dirigeants en la toute-puissance de l’IA ont des conséquences délétères pour les libertés humaines, qu’elles soient politiques, physiques ou intellectuelles. Corteel s’inquiète par exemple des dispositifs mis en place sous prétexte de sécurité (caméras “intelligentes” pour surveiller les foules, reconnaissance faciale, etc.), y voyant l’avènement possible d’une société de la surveillance intégrale – un cauchemar de justice où la présomption d’innocence et la vie privée seraient sacrifiées sur l’autel de l’efficacité algorithmique.
Cependant, l’essayiste ne verse pas dans le pessimisme stérile. S’il expose ces risques, c’est pour mieux appeler à la responsabilité collective face à la technologie. Corteel souligne qu’il ne s’agit pas de rejeter en bloc l’usage de l’IA – celle-ci peut être utile et légitime, par exemple pour aider à la décision médicale ou soulager certaines tâches répétitives – mais à condition de fixer démocratiquement des limites à son utilisation. Il invite à distinguer les usages véritablement émancipateurs de ceux qui renforcent la mainmise du capitalisme de surveillance. En un sens, il nous pose la question : peut-on séparer la « mauvaise » IA qui contrôle et asservit, de la « bonne » IA qui soigne ou préserve l’environnement, sans commettre d’erreur de diagnostic ?. La réponse implique un débat citoyen sur les finalités que nous assignons à ces technologies. Cet appel à “reprendre la main” sur l’IA fait écho à la pensée de Feuerbach évoquée plus haut : de même qu’il fallait, selon le philosophe allemand, réattribuer à l’Homme les qualités projetées sur Dieu, il s’agit ici de redonner à la société humaine le contrôle des facultés qu’elle a déléguées aux machines. Pour Corteel, cela passe par une réaffirmation de nos choix politiques : quels usages de l’IA voulons-nous encourager ou prohiber ? Quel degré d’automatisation est acceptable sans déshumaniser les pratiques professionnelles (dans l’éducation, la médecine, la justice…) ? Quels garde-fous légaux et éthiques instituer pour éviter que l’outil ne se transforme en maître ?
En définitive, Ni dieu ni IA délivre un message profondément humaniste. Le livre appelle à préserver notre créativité et notre autonomie face à l’exploitation cognitive généralisée que facilite une IA débridée. Il s’agit de refuser la posture de simple spectateur fataliste devant la “boîte noire” algorithmique, et de redevenir acteurs lucides de l’orientation technologique. Corteel propose ainsi une ouverture constructive : repenser l’agencement entre humains et machines, non pour stopper tout progrès, mais pour l’assujettir aux exigences du bien commun. Son essai, loin de diaboliser la recherche en intelligence artificielle, plaide pour une approche démocratique et humaine du numérique, où la technologie reste un moyen et non une fin en soi. C’est en exerçant notre esprit critique et en démystifiant l’IA que nous pourrons, selon lui, en exploiter le potentiel sans perdre notre âme – c’est-à-dire sans renoncer à ce qui fait notre intelligence propre et notre dignité.
Dans le débat public : des illusions technologiques aux enjeux bien réels
La parution de Ni dieu ni IA intervient dans un contexte de débat public effervescent autour de l’intelligence artificielle. Au cours des années 2023-2025, les technologies d’IA générative (telles que les modèles de langage type ChatGPT ou les générateurs d’images) ont spectaculairement fait irruption sur le devant de la scène, suscitant tour à tour espoirs utopiques et craintes existentielles. D’un côté, certains promettent que l’IA résoudra des crises majeures – du changement climatique à la pénurie de médecins – et vont jusqu’à la décrire comme une sorte de providence technologique infaillible. De l’autre, des voix s’élèvent pour alerter sur des scénarios à la science-fiction, où l’IA pourrait devenir hors de contrôle et supplanter l’humanité. La force de l’essai de Corteel est de prendre le contrepied de ces deux extrêmes, en ancrant la réflexion dans la réalité présente et observable des usages de l’IA. Il refuse aussi bien la complaisance technophile que le catastrophisme apocalyptique, et invite à un débat dépassionné mais rigoureux, fondé sur les faits et la raison.
En ce sens, Ni dieu ni IA apporte un éclairage précieux pour le grand public et les décideurs. Corteel contribue à démystifier l’IA en expliquant simplement – mais sans simplification abusive – ce qu’elle est vraiment et ce qu’elle n’est pas. Par exemple, en popularisant l’idée du “perroquet stochastique”, il aide à comprendre que les prouesses linguistiques des chatbots ne sont pas le signe d’une pensée consciente, mais le produit de calculs probabilistes sur d’énormes corpus de textes. De même, ses références à la “Bibliothèque de Babel” de Borges ou aux paradoxes logiques montrent de façon imagée comment une combinatoire quasi infinie de données peut aboutir à du non-sens, noyant l’information pertinente dans un océan de bruit. Ces analogies, reprises dans les médias qui ont chroniqué le livre, contribuent à diffuser un esprit critique face à l’emballement parfois irrationnel autour de l’IA.
Par ailleurs, l’ouvrage de Corteel fait écho à des préoccupations grandissantes concernant la régulation de l’intelligence artificielle. Partout dans le monde, des discussions ont lieu sur la manière d’encadrer les algorithmes pour éviter les biais et protéger les droits fondamentaux. En Europe, par exemple, un projet de règlement (AI Act) vise à bannir les usages les plus dangereux de l’IA (comme le scoring social) et à imposer des obligations de transparence. Aux États-Unis, les débats s’intensifient sur le monopole des big tech et la nécessité de nouvelles lois antitrust ou de chartes éthiques pour l’IA. Ni dieu ni IA s’inscrit pleinement dans ce contexte en fournissant une base philosophique et critique solide à ces questions. En insistant sur la notion de culture critique collective de l’IA, Corteel suggère que la régulation ne peut être efficace qu’accompagnée d’une prise de conscience large des citoyens. L’éducation au numérique, l’implication des travailleurs dans les choix d’automatisation, ou encore la transparence accrue des systèmes algorithmiques, sont autant de pistes convergentes avec les conclusions de l’essai.
L’impact de cet ouvrage dans le paysage intellectuel français se mesure aussi aux nombreux échos qu’il rencontre chez d’autres penseurs et écrivains. On peut rapprocher la démarche de Corteel de celle d’antérieures critiques de l’IA formulées par exemple par le chercheur Jean-Gabriel Ganascia (Le Mythe de la Singularité) ou le spécialiste des données Dominique Cardon (À quoi rêvent les algorithmes ?). Comme eux, Corteel questionne les discours trop enchantés sur l’IA et souligne la continuité entre l’“intelligence” des machines et le travail humain accumulé qu’elles encapsulent. Mais Corteel va plus loin dans la dimension philosophique, en réinscrivant le débat dans le sillage du scepticisme moderne et d’une réflexion sur l’aliénation similaire à celle qu’inspira jadis la religion. Cette originalité donne au livre une portée singulière dans le débat actuel : il relie les enjeux technologiques aux grands thèmes de la philosophie (la connaissance, le réel, la liberté, le pouvoir) d’une manière à la fois érudite et accessible. À l’heure où la fascination pour l’IA le dispute à l’inquiétude qu’elle provoque, Ni dieu ni IA fournit des clés pour naviguer entre ces écueils, en évitant aussi bien la naïveté que la panique.
Notons enfin que l’auteur ne se contente pas d’un constat. Son essai a aussi une dimension prospective et normative : implicitement, il pose les jalons de ce que pourrait être une IA maîtrisée et au service de l’humain. En soulignant qu’il « nous appartient collectivement de fixer nos propres règles de délibération » face à ces technologies, Corteel rejoint un courant de pensée qui promeut la souveraineté citoyenne dans les choix technologiques. Ce faisant, Ni dieu ni IA se révèle être non seulement une critique, mais aussi un appel – un appel à construire un futur numérique qui ne soit ni gouverné par un dieu-machine, ni abandonné au seul marché, mais orienté par les valeurs humanistes et démocratiques.
Conclusion : la portée de Ni dieu ni IA dans le paysage intellectuel
En conclusion, Ni dieu ni IA de Mathieu Corteel s’impose comme une contribution majeure à la réflexion contemporaine sur l’intelligence artificielle. Par son approche sceptique rigoureuse, l’ouvrage tranche avec les essais plus convenus sur le sujet : il ne cherche ni à vendre de l’IA comme une révolution miraculeuse, ni à alimenter un récit dystopique facile. Au contraire, Corteel nous offre une grille de lecture nuancée et philosophique, qui démonte les fantasmes tout en reconnaissant l’ampleur des défis posés. La grande force de ce livre est de marier une analyse conceptuelle pointue (faisant appel à Descartes, Hume, Feuerbach, etc.) avec une attention concrète aux faits (études de cas, exemples technologiques, données socio-économiques). Ce double niveau de lecture le rend à la fois stimulant pour les spécialistes et tout à fait accessible aux non-initiés, comme l’ont souligné plusieurs critiques.
Au-delà du cercle des spécialistes de l’éthique du numérique, Ni dieu ni IA trouve un écho chez tous ceux qui, face à l’essor rapide de l’IA, s’interrogent sur le sens et la direction de cette évolution. L’ouvrage rassure en un sens les lecteurs attachés à la spécificité de l’intelligence humaine – il montre que la créativité, l’empathie, la conscience ne sauraient être répliquées par de simples modèles statistiques. Mais il inquiète aussi, légitimement, en exposant les dérives déjà à l’œuvre lorsque l’on abdique trop vite notre pouvoir critique aux sirènes technologiques. Ce faisant, Corteel réussit un équilibre délicat : fournir un rappel indispensable de la vigilance éthique nécessaire à l’ère numérique, sans tomber dans le rejet stérile de la technique. Son essai apparaît ainsi comme une lecture essentielle pour comprendre et agir face aux transformations profondes que provoque l’IA dans nos vies et nos sociétés.
En refermant le livre, le lecteur prend conscience que l’intelligence artificielle n’est ni une divinité providentielle, ni un démon apocalyptique : elle demeure une construction humaine, trop humaine, porteuse de nos espoirs comme de nos travers. Ni dieu ni IA nous rappelle en fin de compte que l’ultime pouvoir – celui de décider du monde que nous voulons – ne doit appartenir ni à Dieu ni à la machine, mais bien à nous, citoyens et êtres pensants, dotés de raison et de libre arbitre. C’est en cela que l’essai de Mathieu Corteel marque les esprits : par son appel à ne jamais dissoudre l’humain dans l’artefact, et à exercer notre intelligence pour garder les rênes de celle, artificielle, que nous créons. Un message salutaire, à l’heure où l’ivresse technologique pourrait facilement nous faire perdre le nord.
https://urlr.me/dawuyS