French Touch Attitude

Notre conseil lecture : "Atlas de l'Intelligence Artificielle" de Kate Crawford

Notre conseil lecture : "Atlas de l’Intelligence Artificielle" de Kate Crawford

L’IA est-elle vraiment neutre ? Une illusion bien ancrée.

Dans Atlas de l’Intelligence Artificielle (2021), Kate Crawford nous propose un regard critique et éclairant sur l’IA, loin des discours idéalisés d’une technologie autonome et objective.

 Elle nous rappelle que l’IA n’est pas une force indépendante : c’est une construction humaine, profondément ancrée dans nos structures sociales, économiques et politiques.

 Trois idées clés du livre :

 1️ Une technologie façonnée par l’humain, avec ses biais et ses limites

L’IA n’est pas un système neutre, elle est entraînée sur des données humaines, imprégnées de nos biais culturels, économiques et sociaux.

Exemple : Des études ont montré que certains modèles de reconnaissance faciale étaient moins précis sur les visages non caucasiens, car les bases de données utilisées pour l’entraînement étaient majoritairement composées d’images de personnes blanches.

Conséquence : Loin d’être un système objectif, l’IA peut reproduire et amplifier les inégalités existantes.

 2️ L’impact matériel de l’IA : un coût écologique sous-estimé

 Derrière le "virtuel", une infrastructure bien réelle.

L’IA repose sur des datacenters gigantesques, nécessitant des ressources énergétiques colossales pour fonctionner. Crawford souligne :

Un seul entraînement de modèle d’IA peut produire autant de CO₂ que cinq voitures sur toute leur durée de vie.

L’extraction de terres rares pour fabriquer les composants électroniques exploite des ressources naturelles limitées et pose des problèmes éthiques (conditions de travail, pollution).

Conséquence : Loin d’être immatérielle, l’IA est aussi une industrie polluante, dont l’empreinte carbone est encore trop peu prise en compte dans les débats publics.

3️ L’illusion de l’intelligence : L’IA ne "pense" pas

Loin des mythes d’une intelligence autonome, l’IA ne fait que manipuler des probabilités.

 Un modèle de langage comme ChatGPT ne comprend pas le sens des mots : il prédit simplement la suite la plus probable d’une phrase en fonction de son entraînement.

Un modèle de vision par ordinateur ne voit pas comme un humain : il identifie des motifs statistiques dans des pixels.

L’erreur à éviter ? Croire que ces algorithmes prennent des décisions comme un être humain. Ils ne font qu’optimiser des calculs en fonction de critères définis par leurs concepteurs.

 Conséquence : L’IA ne remplacera pas l’intelligence humaine, mais elle peut transformer en profondeur notre rapport à la connaissance et aux décisions automatisées.

Pourquoi lire ce livre ?

Une approche critique et documentée, loin des discours technophiles béats ou alarmistes.

Une plongée dans les coulisses de l’IA, pour comprendre comment elle est fabriquée et quelles dynamiques de pouvoir elle renforce.

Des questions fondamentales : Qui contrôle l’IA ? Au profit de qui fonctionne-t-elle ? Quel est son véritable impact sur nos sociétés ?

La phrase à retenir :

"L’IA n’est pas une entité abstraite. C’est une industrie, un écosystème et une infrastructure de pouvoir."

Pour s'inscrire à notre webinaire du 13 mars :

https://lnkd.in/dvU29tnF

Pour ceux qui sont intéressés mais non disponibles n'hésitez pas à nous contacter sur LinkedIn