French Touch Attitude

Internet mort : mythe complotiste ou réalité imminente ?

Internet mort : mythe complotiste ou réalité imminente ?

Des tweets identiques répétés par des comptes différents récoltant des milliers de « likes », des images absurdes générées par ordinateur devenues virales du jour au lendemain, et des robots logiciels qui s’abonnent les uns aux autres pour paraître légitimes… À parcourir le Web en 2025, on a parfois l’impression troublante d’une toile envahie par l’artifice, où les vraies personnes se raréfient. Cette impression fait écho à une vieille théorie conspirationniste apparue sur les forums les plus obscurs : l’Internet serait « mort » depuis la seconde moitié des années 2010, et la majorité des contenus que nous consommons en ligne ne seraient plus créés ni même consultés par des humains réels. Longtemps reléguée au rang de fantasme, cette idée de « Web zombie » refait surface, alimentée par des statistiques vertigineuses sur la part de trafic automatisé et la montée en puissance de l’intelligence artificielle. Que révèle cette théorie de l’« Internet mort » sur l’état actuel du réseau ? Est-elle en train de devenir réalité avec la prolifération des bots et des contenus synthétiques ? Enquête sur un phénomène inquiétant qui bouleverse notre rapport à Internet, avec le regard d’experts et les chiffres à l’appui.

Aux origines de la théorie de l’« Internet mort»

L’idée d’un « Internet mort » – un réseau vidé de sa substance humaine et piloté par des algorithmes – a émergé au cours des années 2010 dans les tréfonds du web. Elle est d’abord évoquée anonymement sur des forums comme 4chan, haut lieu de cultures numériques alternatives. Mais c’est en janvier 2021 qu’elle prend de l’ampleur, lorsqu’un internaute pseudonymé IlluminatiPirate publie un long manifeste sur le forum Agora Road’s Macintosh Cafe, un site aux allures nostalgiques où l’on discute habituellement musique lo-fi et théories ésotériques. Intitulé « Dead Internet Theory: Most of the Internet is Fake » (« Théorie de l’Internet mort : la plupart d’Internet est faux »), le billet détaille une vision paranoïaque : Internet serait quasiment déserté par les humains depuis 2016 ou 2017, n’étant plus peuplé que de bots (programmes automatisés) et de faux profils, et l’essentiel des contenus « soi-disant créés par des personnes » seraient en réalité générés par des intelligences artificielles. Selon cette théorie, une vaste coalition entre des gouvernements et des grandes entreprises du Web tirerait les ficelles dans l’ombre pour inonder la toile de contenus artificiels, manipuler l’opinion publique et pousser à la consommation, le tout en entretenant l’illusion d’une activité humaine authentique.

Présentée ainsi, la thèse a tout du complot total. IlluminatiPirate affirme par exemple observer depuis des années « les mêmes discussions, les mêmes images et les mêmes réponses repostées encore et encore » sur les forums, comme si un scénario se répétait en boucle. Il pointe du doigt la présence d’algorithmes de recommandation partout – de YouTube à Facebook – qui régissent ce que l’on voit en ligne, ainsi que l’émergence des deepfakes (montages hyperréalistes permettant de truquer vidéos ou photos) pour suggérer que « plus rien n’est réel sur Internet ». D’après lui, le grand « remplacement » numérique aurait eu lieu aux alentours de 2016 : cette année-charnière revient souvent dans les propos des adeptes de la théorie, qui y voient un tournant où la toile serait devenue « stérile et vide d’âmes ». Ce qui s’est passé en 2016 ? Les complotistes n’en savent rien de concret, mais ils imaginent qu’un programme secret d’IA à grande échelle a commencé à cette période à dupliquer massivement du contenu, peut-être sous l’égide d’agences gouvernementales ou militaires. L’objectif final serait le contrôle des esprits : « le gouvernement américain mène un gigantesque gaslighting [manipulation cognitive] alimenté par l’intelligence artificielle à l’encontre de la population mondiale », ose même avancer IlluminatiPirate dans son post.

Bien qu’abracadabrante, la théorie va trouver un écho au-delà de son cercle d’initiés. Le billet originel est vu des dizaines de milliers de fois et repartagé sur Reddit (y compris dans le subreddit de fans de Joe Rogan, célèbre pour sa sensibilité aux théories alternatives), sur Hacker News ou sur des forums dédiés au paranormal. Des vidéos YouTube en plusieurs langues se chargent de la populariser auprès d’un public plus large. En août 2021, c’est un grand média, The Atlantic, qui s’y intéresse : la journaliste Kaitlyn Tiffany publie un article au titre provocateur – « Peut-être l’avez-vous manqué, mais Internet est “mort” il y a cinq ans » – où elle se penche sur cette drôle d’hypothèse. Elle y qualifie la théorie d’« ridicule, mais pas si ridicule que ça ». Car si l’idée d’une conspiration généralisée pilotée par la NSA ou Google relève de la science-fiction, plusieurs observations bien réelles viennent semer le doute et expliquent pourquoi de plus en plus d’internautes ont le sentiment que « quelque chose cloche » sur le Web actuel.

Bots, faux comptes et trafic fantôme : le règne du faux

La première de ces observations, c’est la présence massive de bots sur Internet. Des robots logiciels parcourent en continu les réseaux sociaux, sites et forums pour y publier des messages automatisés ou interagir sans intervention humaine. Cela peut servir des usages légitimes (par exemple les bots des moteurs de recherche comme Google qui indexent le Web, ou des programmes diffusant automatiquement la météo ou les actualités), mais une part croissante de ces robots poursuivent des objectifs malveillants ou trompeurs : spam publicitaire, tentatives d’arnaques, propagation de désinformation, manipulations politiques, ou encore attaques visant à surcharger des services en ligne. Le résultat ? Près d’un internaute sur deux avec qui vous “interagissez” en ligne n’est peut-être pas un humain... mais un bot. Cette formule provocante résume un constat chiffré : selon les rapports annuels de la société de cybersécurité Imperva, spécialisée dans l’analyse du trafic web, la part de trafic non-humain sur Internet augmente constamment depuis le milieu des années 2010. En 2020, Imperva estimait que 40 % du trafic Internet mondial était généré par des bots (dont environ 25 % par des bots carrément malveillants). Trois ans plus tard, le bilan a encore empiré : pour l’année 2023, Imperva révèle que le volume de trafic automatisé a atteint un niveau record, représentant 49,6 % du trafic global. Autrement dit, les humains ne comptent plus que pour la moitié à peine de l’activité en ligne, les bots occupant tout le reste de la bande passante. C’est le cinquième accroissement annuel consécutif de ce phénomène : les robots prennent chaque année un peu plus de place, pendant que la proportion de trafic réellement humain diminue d’autant. Fait notable, la part des bad bots – les plus néfastes, capables d’imiter le comportement humain pour tromper les filtres – s’élève, elle, à 32 % du trafic mondial en 2023, en hausse de près de deux points sur un an.

Des chiffres similaires circulaient déjà en 2018, quand un article du New York Magazine posait la question : « Quelle proportion d’Internet est fausse ? ». On y apprenait qu’en certaines périodes, la majorité du trafic web était automatisée, et on y révélait une anecdote édifiante sur YouTube. En 2013, la plateforme vidéo de Google aurait détecté tellement de vues artificielles générées par des bots (tentant d’augmenter frauduleusement le compteur de certaines vidéos) que des employés ont craint un moment d’atteindre un point de bascule surnommé « l’Inversion». Ils redoutaient qu’au train où allaient les choses, l’algorithme de YouTube chargé de distinguer les vrais visionnages des faux finirait par confondre la réalité et la simulation : si plus de la moitié des vues provenaient de bots, le système risquait d’en venir à traiter les bots comme le normal et les humains comme des anomalies ! Cette situation, qui semble sortie d’un roman de science-fiction, illustre pourtant un danger bien réel : la saturation du réseau par des activités non humaines au point d’altérer le fonctionnement même des plateformes.

Les réseaux sociaux sont tout particulièrement touchés par ce fléau des faux comptes et du trafic fictif. Le groupe Meta (Facebook) estime qu’entre 5 et 10 % des comptes actifs sur sa plateforme sont des profils inauthentiques – un euphémisme pour désigner soit des faux comptes gérés par des individus malintentionnés, soit carrément des comptes automatisés. Le volume de ces comptes factices est tel que Facebook en supprime des milliards chaque année : au dernier trimestre 2020 par exemple, le réseau a désactivé 1,3 milliard de faux comptes en l’espace de trois mois. Le phénomène est ancien (dès sa création Facebook a été confronté aux faux profils), mais il a pris une ampleur industrielle. En 2019, un pic avait même été atteint avec plus de 3 milliards de comptes supprimés en un seul trimestre, preuve de l’activité effrénée des fabricants de spams et autres arnaques. Twitter (rebaptisé X) n’est pas en reste : bien que la société ait longtemps minimisé le problème en affirmant que moins de 5 % des comptes actifs seraient des faux, des chercheurs externes ont estimé en 2022 que ce chiffre était largement sous-évalué. Une étude conjointe des firmes SparkToro et Followerwonk a évalué qu’environ 19 % des comptes Twitter actifs (ayant publié récemment) remplissaient les critères du faux profil ou du bot. En clair, jusqu’à un profil sur cinq sur Twitter pourrait être automatisé ou inauthentique, soit quatre fois plus que ne l’admettait officiellement la plateforme. Cette question des bots de Twitter a fait couler beaucoup d’encre en 2022 lors du rachat de l’entreprise par Elon Musk : le milliardaire lui-même accusait l’ancien management d’avoir dissimulé la véritable proportion de faux comptes, et affirmait vouloir “nettoyer” le réseau des armées de robots qui le parasitent. Force est de constater qu’en 2023, malgré certaines purges de comptes, les bots pullulent toujours sur X, notamment dans les réponses aux tweets populaires où l’on voit quantité de messages publicitaires louches ou de contrefaçons d’annonces officielles publiés par des profils manifestement automatisés.

Outre les bots qui génèrent du trafic ou interagissent sur les réseaux, il y a aussi la question des contenus eux-mêmes. Depuis quelques années, les spécialistes de l’économie numérique notent une prolifération d’articles, de vidéos, de posts de blog ou de commentaires de forums au goût de déjà-vu, lorsqu’ils ne sont pas carrément absurdes ou trompeurs. Combien de fois est-on tombé, en cherchant une information sur Google, sur un site aux allures de média d’actualité mais dont les articles semblent vides de substance, truffés de phrases génériques mal tournées ? Ou sur des pages qui copient mot pour mot du contenu issu d’ailleurs ? Derrière ces “fermes à contenus” et ces sites opportunistes, il n’y a souvent pas grand-monde aux manettes – si ce n’est des algorithmes de génération de texte et quelques webmestres cupides cherchant à attirer du clic facile. En 2023, la société NewsGuard, qui traque les sources de désinformation en ligne, a tiré la sonnette d’alarme : elle avait repéré en quelques mois l’apparition d’au moins 1 150 sites d’actualité non fiables générés par IA à travers le monde, aux noms souvent passe-partout imitant des médias légitimes. Ces pseudo-sites publient à la chaîne des articles rédigés par des intelligences artificielles, sans aucune vérification, ce qui mène à des aberrations : nécrologies de célébrités… encore vivantes, actualités entièrement fabriquées, ou recyclage d’anciennes infos présentées comme neuves. Le plus inquiétant est que ces sites parviennent à se financer via de la publicité programmatique (des annonces placées automatiquement par des régies publicitaires), et qu’ils peuvent apparaître dans les résultats des moteurs de recherche ou même servir de sources involontaires à des articles Wikipédia.

En France, le phénomène n’est pas qu’importé : une enquête du média Next INpact a révélé en février 2024 l’existence de plus de 1 000 sites web francophones qui prétendent délivrer des informations ou conseils d’experts, mais qui en réalité publient du contenu généré ou traduit par des IA, sans le préciser. Une pollution invisible du web francophone, passée presque inaperçue jusqu’alors. Derrière ces sites se cacheraient une centaine de petits entrepreneurs du clic, ayant industrialisé la production de textes automatiques pour engranger des revenus publicitaires. Autrement dit, il existe désormais une économie du faux contenu. Des individus créent en masse des sites artificiels nourris à l’IA, parce que c’est rentable et relativement facile : pas besoin de rédacteur, la machine écrit à la chaîne. Ce contenu fabriqué inonde la toile de pages supplémentaires – souvent de faible qualité et parfois mensongères – qui viennent parasiter l’écosystème de l’information en ligne.

Toutes ces tendances – bots de trafic, faux comptes, articles automatisés – rendent l’expérience en ligne de plus en plus déroutante. Pour l’internaute moyen, il devient très difficile de savoir quelle proportion de ce qu’il voit provient de vrais pairs humains. Les grandes plateformes assurent redoubler d’efforts pour combattre les inauthenticités (chaque trimestre, Meta communique sur les millions de faux comptes supprimés, et Twitter comme YouTube annoncent régulièrement des nettoyages de bots ou de spams). Malgré cela, l’ampleur de la tâche relève du jeu du chat et de la souris : pour chaque compte fictif banni, d’autres se créent ailleurs de façon automatisée. Pour chaque astuce de détection mise en place, les tricheurs trouvent une parade. L’utilisateur lambda, lui, n’a aucun moyen sûr de savoir si l’actualité “trending” du jour a été amplifiée naturellement ou par une armée de comptes programmés. Cette incertitude permanente mine la confiance dans l’authenticité du Web. Et c’est précisément ce doute diffus qui fait le lit de la théorie de l’Internet mort : même sans croire à un complot ourdi par l’État, beaucoup ressentent confusément que « quelque chose n’est plus vrai» en ligne.

L’avènement des IA génératives : la machine prend la plume

Si la sensation d’un Internet factice s’accentue ces dernières années, c’est en grande partie dû à un facteur technologique nouveau : l’essor fulgurant des intelligences artificielles génératives. En l’espace de quelques années, on est passé d’algorithmes relativement frustes – capables par exemple de tweeter un slogan répété à l’identique via mille comptes factices – à des IA beaucoup plus sophistiquées, en mesure de produire sur demande toutes sortes de contenus originaux et crédibles en apparence.

La fin de l’année 2022 marque un tournant : l’entreprise OpenAI lance ChatGPT, un agent conversationnel grand public bluffant de réalisme, basé sur un modèle de langage entraîné sur des milliards de phrases du web. Brusquement, créer de toutes pièces un texte bien tourné sur n’importe quel sujet devient à la portée de n’importe quel internaute, sans compétence technique particulière. Il suffit d’écrire une consigne, et l’IA rédige un paragraphe argumenté ou un article de blog en quelques secondes. Dans la foulée, d’autres outils génératifs explosent en popularité : Midjourney ou Stable Diffusion pour synthétiser des images à partir de texte (donnant naissance à une myriade d’images surréalistes ou pastiches artistiques sur les réseaux), sans oublier les clones vocaux et les vidéos deepfake de plus en plus accessibles. Résultat, à partir de 2023, la quantité de contenus artificiels disponibles en ligne connaît une croissance exponentielle. Ce que les adeptes de l’Internet mort dénonçaient en théorie – le fait que « la plupart des contenus Web seraient produits par des systèmes d’IA » – est en train de devenir une réalité palpable.

« Quand cette théorie a vu le jour, nous avions encore besoin des humains pour créer des contenus de qualité, l’IA n’était pas suffisamment avancée. Mais avec le perfectionnement des grands modèles de langage, il est beaucoup plus réaliste de penser qu’Internet pourrait devenir un lieu rempli de contenus générés par des systèmes d’IA », explique Josh Yoshija Walter, professeur de transformation digitale à la Haute école spécialisée Kalaidos (Suisse) et coauteur de l’étude Artificial Influencers and the Dead Internet Theory. Concrètement, l’automatisation de la création de contenu est en passe de franchir un cap. Hier, un spammeur qui voulait inonder Twitter de messages politiques répétitifs devait se contenter de copier-coller la même phrase via un millier de comptes : très vite, cela se repérait, car les tweets étaient identiques. Aujourd’hui, ce même individu, armé d’une IA générative, peut demander : « Rédige mille messages différents véhiculant telle idée, avec des formulations variées ». En quelques instants, il obtient un millier de phrases uniques, aux tournures changeantes, qu’il pourra publier via autant de profils fictifs. Pour les systèmes de détection automatisée, la tâche devient infiniment plus ardue : comment distinguer ces textes des contributions d’internautes sincères, puisqu’ils semblent rédigés dans un langage naturel correct et sans redondance évidente ? Jake Renzella, enseignant-chercheur en sciences informatiques à l’Université de Nouvelle-Galles du Sud (Australie), résume ce basculement : « Le meilleur moyen de comprendre la Dead Internet Theory, c’est de réaliser que l’Internet que tu as connu et aimé ces dernières décennies a disparu. C’est la fin de la période où la majorité du contenu en ligne était écrite par des humains. Nous sommes devenus des citoyens de seconde classe sur Internet. » Ce constat brutal signifie qu’effectivement, la voix humaine authentique est en train d’être submergée par un flot de texte, d’images et de sons produits par des machines.

Les chiffres donnent le vertige. Europol, l’office européen de police, a prévenu dans un rapport prospectif que d’ici 2026 jusqu’à 90 % des contenus en ligne pourraient être générés par l’IA. Ce scénario extrême – presque la totalité d’Internet produite non par des humains mais par des algorithmes – n’a rien d’impossible si l’on considère l’allure des progrès récents. Déjà aujourd’hui, il est estimé qu’une portion significative des nouveaux contenus publiés chaque jour sur le Web (articles, posts sur les forums, œuvres graphiques…) provient d’outils d’IA. Par exemple, sur la plateforme de commerce Amazon, des enquêtes ont montré l’explosion du nombre de livres signés par des “auteurs” qui ne sont autres que ChatGPT ou ses semblables : romans à l’eau de rose, guides pratiques ou livres pour enfants générés en masse et vendus quelques euros, inondant le catalogue. Sur les sites de questions-réponses techniques, des réponses entières sont postées par des chatbots, au point que certains forums (StackOverflow, Reddit) ont dû bannir temporairement les contenus issus de GPT tant ils risquaient d’induire les visiteurs en erreur.

Les influenceurs virtuels commencent également à peupler les réseaux sociaux : ces personnages numériques, parfois incarnés en 3D ou par des photos générées, publient des contenus comme le feraient de vrais individus et attirent des millions d’abonnés. Si pour l’instant la création de ces influenceurs artificiels requiert encore l’intervention de quelques techniciens et graphistes, on s’approche du moment où leur animation pourra être totalement automatisée. L’entreprise Meta elle-même a récemment communiqué sur sa volonté de déployer des “amis virtuels” animés par l’IA sur Facebook. On voit aussi apparaître des chatbots censés tenir compagnie aux utilisateurs, par exemple l’application Replika qui propose un « ami virtuel » conversationnel (certains l’utilisent même comme partenaire romantique simulé). Tous ces exemples montrent à quel point l’IA s’infiltre dans notre expérience sociale en ligne, brouillant toujours plus la frontière entre l’authentique et le simulacre.

Un cas qui a beaucoup fait rire les internautes, tout en les inquiétant : début 2024, des images surréalistes de « Jésus-crevette» – représentant Jésus-Christ fusionné avec une crevette – sont devenues virales sur Twitter. Ces images étaient évidemment le fruit de générateurs graphiques automatiques et de l’imagination débridée de quelques farceurs, mais leur prolifération a illustré comment un contenu créé sans le moindre effort par une machine peut soudain occuper une place démesurée dans les fils d’actualité. De même, des images prétendument artistiques accompagnées de légendes saugrenues (« J’ai 112 ans et j’ai cuisiné mon propre gâteau d’anniversaire à la crème de pêche » ou « J’ai sculpté Mark Zuckerberg dans du bois ») ont circulé massivement, alors qu’il s’agissait d’illustrations générées automatiquement et postées par des bots. Certes, ces cas relèvent plus du divertissement absurde que de la manipulation, mais ils participent à l’atmosphère générale d’artificialité. Le faux amuse, mais il finit aussi par lasser et inquiéter, lorsqu’il devient omniprésent.

Réseaux sociaux : terrain de jeu des faux profils et fausses nouvelles

Si Internet dans son ensemble est affecté par l’automatisation, c’est sur les réseaux sociaux que la bataille de l’authenticité fait le plus rage. Ces plateformes – Facebook, Twitter/X, Instagram, TikTok, YouTube, etc. – sont devenues au fil de la dernière décennie les places publiques où s’informe et discute une large fraction de la population. Or, elles combinent tous les ingrédients pour être la cible privilégiée des faux contenus et faux utilisateurs.

D’abord, leur modèle économique incite à la course à l’attention. Pour Facebook comme pour X ou TikTok, plus un contenu génère de vues, de “likes” et de partages, plus il rapporte (en publicité ou, plus récemment, via la rémunération directe des créateurs sur certaines plateformes). Dans cette économie de l’engagement, tous les coups sont permis pour gonfler les chiffres. L’achat de faux abonnés existe depuis longtemps, tout comme les “usines à clics” en Asie où des salariés cliquent mécaniquement sur des pubs ou des vidéos pour faire monter les compteurs. Mais avec les bots, on est passé à l’échelle industrielle : plus besoin d’humains sous-payés derrière chaque écran de smartphone, un seul programme peut contrôler des milliers de comptes automatiques qui s’abonnent les uns aux autres, regardent en boucle une vidéo promotionnelle ou laissent des commentaires laudatifs sous le post d’un influenceur. Des enquêtes ont montré que sur Instagram ou YouTube, des créateurs peu scrupuleux n’hésitent pas à recourir à ces procédés pour doper artificiellement leur popularité. En 2018, l’agence d’information Bloomberg révélait qu’une start-up chinoise baptisée Devumi avait vendu des centaines de millions de faux abonnés Twitter à des célébrités, mannequins et hommes politiques pour une poignée de dollars, avant d’être fermée.

Aujourd’hui, Twitter (X) et Facebook prétendent traquer et supprimer ces armées de bots trompeurs. Mais le phénomène a atteint un tel degré de sophistication que même leurs algorithmes anti-spam peinent à les débusquer. Des bots suivent et interagissent avec d’autres bots pour gonfler mutuellement leur nombre d’abonnés et paraître crédibles aux yeux des vrais utilisateurs. Un compte automatisé qui n’aurait que des abonnés fantômes serait vite repéré ; alors, les bots “sociabilisent” entre eux, se retweetent, se répondent, créant l’illusion d’une communauté active. Pour un utilisateur humain, voir qu’un profil a, disons, 5 000 abonnés et des échanges réguliers peut suffire à dissiper la méfiance – sans réaliser qu’en réalité 4 500 de ces abonnés sont fictifs et la moitié des commentaires sont générés par ordinateur. C’est ainsi que des campagnes de désinformation par bots ont pu se développer sur les réseaux, visant à influencer l’opinion publique ou à faire pencher une élection. La Russie, notamment, est accusée d’avoir utilisé des trolls automatisés sur Twitter et Facebook pour semer la discorde lors de scrutins occidentaux (élection américaine de 2016, référendum du Brexit, etc.), en saturant les plateformes de messages polarisants sous de faux profils. La stratégie est subtile : il ne s’agit pas seulement de convaincre en faveur d’une idée, mais de noyer l’espace médiatique sous un flot confus d’informations manipulées, pour qu’au final le citoyen ne sache plus discerner le vrai du faux ni où se trouve la majorité.

Les algorithmes de recommandation des réseaux sociaux ont parfois aggravé la situation. Conçus pour maximiser le temps d’écran et les interactions, ils détectent les contenus susceptibles de devenir viraux – y compris les contenus douteux partagés par des comptes douteux – et peuvent les propulser bien au-delà de leur audience initiale. Une étude préliminaire menée en 2024 par des chercheurs de Stanford et Georgetown (aux États-Unis) suggère que l’algorithme de Facebook aurait tendance à amplifier la portée de contenus artificiels, en les montrant à des internautes qui ne suivent même pas les comptes à l’origine de ces posts. Autrement dit, un faux compte qui partage massivement un article généré par IA pourrait voir sa publication suggérée dans le fil de milliers d’utilisateurs réels par le simple jeu de l’algorithme, dès lors que l’article en question suscite un minimum d’engagement initial. Facebook a contesté certaines conclusions de cette étude encore en attente de relecture par les pairs, mais la possibilité même soulève un vertige : le système de recommandation pourrait devenir complice involontaire de la propagation du faux.

Quant à TikTok, le réseau préféré des jeunes, il est lui aussi touché par l’“infestation” de bots. Mi-2023, une enquête du Wall Street Journal a révélé l’existence de communautés entières de faux comptes TikTok se faisant passer pour des fans de K-Pop ou d’autres centres d’intérêt, interagissant entre eux pour booster en visibilité des contenus spécifiques. TikTok a annoncé avoir retiré plus de 100 millions de vidéos en six mois pour cause de “violations diverses” (dont du contenu inauthentique), preuve que le problème est pris au sérieux. Néanmoins, la modération repose largement sur des systèmes automatisés, qui sont toujours en retard d’une astuce par rapport aux générateurs de faux.

Le risque, à terme, est une spirale de méfiance. Les utilisateurs les plus assidus commencent à adopter un réflexe de doute : « Ce tweet est viral, mais vient-il vraiment d’une vraie personne ? Et ces commentaires outranciers sous l’article, ne seraient-ce pas des trolls automatisés ?» Cette suspicion permanente peut virer au cynisme ou au complotisme : certains finissent par ne plus rien croire du tout, ou au contraire par croire que tout est manipulé. Ironie de la chose, même les interactions authentiques finissent par en pâtir : sur un forum où l’on discute d’ovnis ou de pandémie, il n’est pas rare de voir des participants s’accuser mutuellement d’être des “bots du gouvernement” parce qu’ils ne sont pas d’accord. Le climat d’agressivité et de désinformation sur les réseaux a atteint un tel niveau que parfois, les humains eux-mêmes se comportent comme des bots, réagissant au quart de tour par des invectives programmatiques, répétant des éléments de langage sans réflexion personnelle. Comme l’écrit un commentateur désabusé : « Même les disputes en ligne suivent un scénario prévisible, comme si nous étions nous-mêmes devenus des automates qui jouons une partition écrite à l’avance pour générer du clic.»

Vers la fin de l’Internet authentique ?

Face à ce panorama, on peut légitimement s’interroger : l’Internet “vivant” – celui où de vraies personnes créent des contenus originaux pour d’autres personnes – est-il en voie d’extinction ? Sommes-nous en train de basculer dans cet “Internet mort” prophétisé par les conspirationnistes, c’est-à-dire un réseau où l’activité humaine est marginale, submergée par un océan de données synthétiques ?

Poser la question, c’est déjà constater une évolution par rapport aux débuts du Web. Revenons un instant en arrière. Dans les années 1990 et 2000, Internet était souvent décrit comme un espace foisonnant, anarchique et profondément humain. Des millions de particuliers tenaient des blogs ou créaient des petites pages personnelles pour partager leurs passions. Les forums de discussion et les courriels formaient l’ossature des échanges en ligne. Certes, il y avait déjà des canulars et des mensonges (la désinformation n’a pas attendu l’IA pour prospérer), mais globalement, chaque bout de contenu avait un être humain identifiable derrière l’écran. L’idée même que des machines pourraient un jour produire la majorité des textes ou participer aux conversations aurait semblé relever du cyberpunk.

Le désenchantement a commencé à s’installer avec la montée en puissance des grands réseaux sociaux et des plateformes centralisées dans les années 2010. Au lieu de parcourir des blogs tenus par votre voisin ou un inconnu à l’autre bout du monde, vous vous êtes mis à faire défiler un flux Facebook calibré par un algorithme, où apparaissent pêle-mêle des posts de vos vrais amis et des contenus viraux choisis pour maximiser vos réactions. Peu à peu, beaucoup d’internautes se sont sentis dépossédés de l’expérience “artisanale” du Web. Tim Berners-Lee, l’inventeur du Web, rêvait d’« un environnement chaleureux et amical rapprochant les individus » ; or nous voici à l’ère des feed TikTok uniformisés et des chaînes YouTube formatées pour le référencement, où l’authenticité semble diluée. Le Web a aussi renoncé en partie à sa vocation d’“immense bibliothèque universelle” au service du savoir, comme le rappelait la chercheuse Anne Bellon : au lieu de cela, la profusion de contenus générés automatiquement – souvent un remix de ce qui existe déjà, ou pire des affabulations (hallucinations au sens de l’IA) – embrouille la transmission de la connaissance plutôt qu’elle ne l’éclaire.

Pour autant, décréter l’Internet définitivement mort serait exagéré. D’abord, il convient de rappeler que le nombre d’êtres humains connectés n’a jamais été aussi élevé. En 2022, on dénombrait plus de 5,3 milliards d’internautes à travers le monde, un chiffre en constante progression. Jamais autant de personnes réelles n’ont utilisé le réseau pour communiquer, apprendre, créer ou s’amuser. L’activité humaine en ligne, en valeur absolue, n’a pas disparu – elle est même colossale et continue de croître à l’échelle globale, portée par l’arrivée de nouvelles populations d’usagers (pays émergents, zones autrefois non connectées). C’est plutôt la proportion d’activité humaine par rapport à l’activité totale qui tend à diminuer, du fait de l’explosion simultanée des activités automatisées. Le bruit de fond artificiel couvre de plus en plus le signal humain, mais ce dernier existe bel et bien : en clair, derrière chaque bot qui tweete, il y a encore probablement bien plus d’êtres humains qui tweetent également – c’est juste qu’ils sont noyés dans la masse.

Ensuite, il reste de nombreux “soupirs de vie” sur la toile, des espaces où l’authenticité et la créativité humaine continuent de s’exprimer. Paradoxalement, c’est en explorant l’un des recoins excentriques d’Internet qu’on trouve la preuve que tout n’est pas qu’illusion : Kaitlyn Tiffany, dans son article, concluait en substance que si elle a pu tomber sur un forum farfelu débattant de la théorie de l’Internet mort, c’est bien le signe que le Web recèle encore des trésors d’originalité non automatisée. En effet, derrière la théorie elle-même se trouvent de vraies personnes, qui l’ont conçue, diffusée, commentée, parfois avec humour ou autodérision. Le simple fait que des internautes se passionnent pour cette question et mènent l’enquête pour démêler le vrai du faux prouve que l’esprit critique humain n’est pas éteint en ligne.

Néanmoins, les risques liés à la domination croissante des contenus artificiels sont réels et multiples. D’un point de vue psychologique et social, on peut redouter un monde où chacun passerait un temps significatif à interagir avec des simulacres : déjà aujourd’hui, des personnes avouent préférer discuter avec une IA compréhensive qu’avec leurs proches, ou s’attachent à des influenceurs virtuels comme à des célébrités en chair et en os. Sans verser dans une dystopie à la Her (le film où le héros tombe amoureux d’une IA), on voit poindre le danger d’une humanité détournée du réel, investissant émotions et énergie dans des relations ou des contenus fictifs. « Des gens deviennent déjà accros à des systèmes simulant quelque chose de réel, comme les petites amies virtuelles», alerte Josh Yoshija Walter. « On peut craindre que l’humain consacre de plus en plus son temps, son énergie, ses émotions à des choses fausses.» Ce glissement pose la question du sens : si Internet ne sert plus majoritairement à connecter des personnes réelles ou à fournir des informations fiables, à quoi bon ? Un Internet mort, au fond, ce serait un Internet qui ne remplit plus sa raison d’être initiale.

Sur le plan épistémologique, l’invasion des contenus générés pose aussi un problème de confiance dans la connaissance en ligne. Comment faire la différence entre un article scientifique authentique et un pastiche trompeur fabriqué par IA ? Entre une image d’actualité et un montage sophistiqué ? Si tout peut être falsifié ou imité à la perfection, le risque est de sombrer dans un relativisme généralisé où plus rien n’est crédible. Déjà, les journalistes et fact-checkers redoublent d’efforts pour débusquer les fake news alimentées à l’IA, mais la tâche est titanesque. Dans le domaine de la cybersécurité aussi, l’explosion des bots accentue la pression sur les systèmes : plus de la moitié du trafic étant non-humain, comment filtrer efficacement le bon grain (les robots utiles, comme ceux qui gèrent les serveurs ou indexent les sites) de l’ivraie (ceux qui essaient de forcer vos comptes ou de vous arnaquer) ? Chaque avancée technique – par exemple l’IA utilisée pour détecter les fraudes – peut être contrée par une autre IA en face, utilisée par des attaquants. On entrevoit un futur où les IAs s’affrontent sur Internet en une sorte de guerre silencieuse, nous laissant, nous humains, en spectateurs dépassés.

Sauver la toile : quelles solutions face à l’artificialisation du Web ?

Le tableau est sombre, mais il n’est pas trop tard pour éviter la “mort” totale d’Internet telle qu’on la craint. Des pistes de solutions existent, qui mobilisent à la fois la technologie, la réglementation et l’intelligence collective des utilisateurs humains.

La première réponse passe par la prise de conscience et l’éducation. Plutôt que de sombrer dans la paranoïa ou la résignation, il est crucial de développer chez chacun des compétences critiques face aux contenus numériques. Savoir questionner ce que l’on voit en ligne, vérifier les sources, croiser les informations, et ne pas présumer spontanément que l’interlocuteur à l’autre bout du clavier est authentique. « Il faut remettre en question ce qu’on voit en ligne, surtout ce qui nous choque, et bien sûr ne pas présumer qu’on parle à des humains», conseille Jake Renzella. Autrement dit, former les usagers à détecter le faux fait partie des enjeux. Certains parlent d’enseigner dès l’école une sorte de “sens critique face à l’IA” (AI literacy en anglais) pour armer les citoyens contre la désinformation algorithmique.

Ensuite, il y a la nécessité de mettre en place des garde-fous techniques. De grands efforts de recherche sont en cours pour améliorer la détection automatique des contenus générés par IA. Des outils émergent, capables d’analyser un texte ou une image et d’estimer avec un certain taux de confiance s’ils ont été produits par une machine (en repérant par exemple des aberrations subtiles, des incohérences statistiques dans le langage, ou des artefacts visuels caractéristiques). Cependant, cette course-poursuite n’est pas gagnée d’avance : plus les modèles d’IA progressent, plus ils imitent finement les créations humaines, rendant la détection ardue. C’est pourquoi une autre approche est discutée : celle du marquage systématique des productions de l’IA, à la source. L’idée serait que les outils génératifs intègrent un watermark, une sorte de filigrane numérique invisible dans les contenus qu’ils produisent, afin qu’on puisse plus tard authentifier que tel texte ou telle image provient d’une machine. Des géants comme OpenAI ou Google planchent sur de telles solutions de marquage. Néanmoins, cela nécessiterait une adoption large et un respect volontaire des acteurs – rien n’empêcherait des développeurs mal intentionnés de créer des IA sans balise. D’où l’importance d’un cadre légal.

Au niveau réglementaire, les institutions commencent à se pencher sur la question. L’Union européenne, dans son projet d’AI Act, envisage d’obliger les créateurs de contenus synthétiques à signaler clairement ceux-ci, notamment pour tout ce qui pourrait être pris pour du contenu authentique (les deepfakes, par exemple, devraient comporter une mention explicite s’ils ne sont pas à but satirique). Certains pays discutent aussi d’un renforcement des lois contre la botsploitation (exploitation malveillante de bots) : par exemple, en imposant aux réseaux sociaux de vérifier l’identité de leurs utilisateurs ou de limiter drastiquement l’usage des comptes automatisés non déclarés. Une mesure radicale serait d’introduire un identifiant numérique vérifié pour chaque internaute humain, mais cela soulève d’autres enjeux (respect de la vie privée, risque de surveillance généralisée). Il y a donc un équilibre délicat à trouver entre authentifier le web pour le sécuriser et préserver l’anonymat et la liberté qui font partie de l’ADN d’Internet.

Les plateformes elles-mêmes, conscientes que leur crédibilité à long terme est en jeu, explorent des contre-mesures. Par exemple, Twitter/X a évoqué l’idée de différencier clairement les comptes automatisés “légitimes” (bots utiles déclarés comme tels) des comptes humains, via des badges ou des certifications spécifiques. Meta déploie de l’IA pour traquer plus vite les faux comptes à la création, en analysant des centaines de signaux (photo de profil suspecte, activité frénétique dans les premières minutes, etc.). Les hébergeurs et moteurs de recherche affinent leurs algorithmes pour déprioriser les sites de spam et mettre en avant des sources faisant autorité. Google affirme par exemple qu’il pénalise les contenus de mauvaise qualité générés par IA, même s’il ne les bannit pas automatiquement : l’objectif est de ne pas laisser l’écosystème SEO (référencement) être entièrement envahi par du texte creux et automatisé.

Une autre évolution possible, anticipée par certains experts, est le retour vers des communautés en ligne plus restreintes et fermées. Jake Renzella entrevoit « une bascule vers des réseaux sociaux plus privés» dans un avenir proche. Des plateformes comme Discord – où les serveurs de discussion sont sur invitation et modérés par des communautés elles-mêmes – ou d’autres formes de cercles fermés pourraient redevenir à la mode. L’idée : se retrancher dans des espaces où l’on connaît personnellement ou de réputation les autres membres, pour se prémunir de l’invasion des bots. On le voit déjà : de plus en plus d’utilisateurs, lassés du capharnaüm de Twitter ou de Facebook, migrent vers des groupes WhatsApp, Telegram ou Discord avec leurs amis ou collègues, où ils peuvent échanger à l’abri du vacarme extérieur. Ces micro-communautés “semi-privées” offrent pour l’instant un havre relativement épargné par les faux comptes (même s’il existe des bots sur Discord, leur présence dans un groupe restreint est plus facilement repérable par les admins). Bien sûr, cette fragmentation du web social pose d’autres questions – cela peut créer des bulles fermées, des cloisons informationnelles – mais c’est une réaction humaine compréhensible pour regagner un peu de confiance dans ses interactions en ligne.

Enfin, il convient de souligner qu’Internet est un système résilient et évolutif. Tout comme le spam email, apparu dans les années 2000, a fini par être en grande partie contenu grâce aux filtres intelligents, il n’est pas impossible qu’à terme l’écosystème trouve des parades efficaces contre la majorité des contenus automatisés indésirables. L’IA elle-même peut être mise au service de cette cause : on parle déjà de “CAPTCHA inversé”, où ce serait à l’ordinateur de prouver à l’utilisateur qu’il est bien humain (par exemple en affichant un symbole que seul un humain réel peut reproduire facilement). Des chercheurs travaillent sur des protocoles de validation d’information, utilisant la blockchain ou la cryptographie, qui permettraient d’assurer l’authenticité d’une source ou d’un contenu (une sorte de tampon numérique garantissant qu’un article provient bien d’un média vérifié et non d’un site fantôme). Toutes ces pistes réunies pourraient, si elles aboutissent, redonner de l’oxygène à l’Internet “vivant” au milieu du bruit de fond artificiel.

En définitive, l’“Internet mort” n’est pour l’instant qu’une métaphore, certes alimentée par des faits bien concrets, mais le réseau n’a pas encore basculé dans la tombe numérique. Il traverse sans doute une crise de croissance et de confiance, une « crise existentielle » comme la qualifient certains, où il doit redéfinir ce qui fait sa valeur unique à l’heure des intelligences synthétiques. Internet est-il condamné à devenir un gigantesque théâtre de marionnettes automatisées ? Ou saura-t-on y préserver un espace pour l’imprévisibilité, la créativité et l’authenticité humaines qui en ont fait tout l’attrait ? La réponse dépendra de l’action concertée des acteurs du web et des internautes eux-mêmes dans les années à venir. Une chose est sûre : plus nous serons informés des dérives en cours (sans tomber dans le piège du complotisme total), mieux nous pourrons réagir pour éviter que le virtuel ne prenne définitivement le pas sur le réel. Le fait même que nous posions un regard critique sur ces enjeux – et que vous lisiez cet article écrit par un humain, du moins on l’espère ! – est le signe qu’il reste de la vie et de la lucidité dans la matrice. Internet n’est pas encore mort, mais il appelle à une vigilance collective pour rester bien vivant.