L’Essor des Systèmes Experts et Dialogueurs dans les Années 1960–1970
Les années 1960–1970 : l’essor prometteur de l’IA et la désillusion de la fin de décennie
Cambridge (Mass.), 1970. Les laboratoires d’informatique bourdonnent d’activité : depuis le tournant des années 1960, la jeune discipline de l’intelligence artificielle (IA) redouble d’ambitions. Après les balbutiements des années 1950 – où des pionniers comme Alan Turing ou John McCarthy ont posé les bases théoriques – la décennie 1960 voit éclore des programmes capables de prouesses encore inimaginables peu auparavant. Mais à l’aube des années 1980, l’euphorie des débuts fait place à la déception : les promesses non tenues mènent la recherche en IA à un sérieux coup de froid. Plongée dans l’histoire de l’IA des « sixties » et « seventies », entre optimisme débridé, avancées marquantes et premières désillusions.
L’essor des systèmes experts : quand les machines imitent les experts humains
Au milieu des années 1960, une nouvelle approche de l’IA émerge : plutôt que de viser une intelligence générale, on cherche à reproduire le savoir-faire d’experts dans un domaine précis. C’est la naissance des systèmes experts, qui résolvent des problèmes spécialisés à l’aide de règles tirées des connaissances d’humains spécialistes. Le précurseur en la matière est DENDRAL, démarré en 1965 à Stanford par le professeur Edward Feigenbaum (en collaboration avec le chimiste Joshua Lederberg). DENDRAL analyse des données de spectrométrie de masse et identifie les structures moléculaires de composés chimiques – une tâche jusque-là réservée aux chimistes. Pour la première fois, un programme reproduit le raisonnement d’un scientifique, automatisant le processus de décision d’un chimiste organicien et générant des hypothèses sur la composition de substances inconnues.
Quelques années plus tard, en 1972, l’équipe de Stanford accouche d’un autre système expert pionnier : MYCIN, conçu par le jeune informaticien Edward Shortliffe sous la direction de Feigenbaum. MYCIN se concentre sur un problème médical pointu – le diagnostic des infections bactériennes du sang et la recommandation d’antibiotiques adaptés. Basé sur des règles if-then capturant l’expertise de médecins, MYCIN s’avère capable de proposer des traitements parfois plus précis que ceux de médecins généralistes. Ces programmes prouvent la viabilité de l’approche par connaissances expertes et constituent les premières applications pratiques de l’IA dans le monde réel. Limités volontairement à un domaine restreint, ils évitent les écueils d’une intelligence générale encore hors de portée et offrent un succès tangible : à la fin des années 1970, le concept de système expert suscite un engouement tel qu’il donnera bientôt naissance à une véritable industrie de l’IA dans les entreprises.
Parallèlement, d’autres projets pionniers – parfois oubliés – confirment la puissance de cette IA fondée sur le savoir. Au MIT, le programme MACSYMA (débuté en 1967) montre qu’une machine peut manipuler des équations mathématiques complexes à la manière d’un expert en algèbre. Créé par Joel Moses, MACSYMA résout symboliquement des intégrales et simplifie des formules, préfigurant les futurs logiciels de calcul formel. Il devient le premier système d’algèbre symbolique largement utilisé et l’un des plus anciens systèmes experts, appliqué cette fois à la connaissance abstraite des mathématiques. De son côté, à l’université Carnegie Mellon, le programme General Problem Solver (GPS) mis au point par Allen Newell et Herbert Simon dès 1957 tente de fournir une méthode de résolution générale pour tout problème formalisé. Newell s’enthousiasme alors au-delà du raisonnable, clamant que désormais « il existe des machines qui pensent, qui apprennent et qui créent » et qu’« dans un futur proche […] la gamme de problèmes qu’elles pourront résoudre sera coextensive à celle que l’esprit humain peut aborder ». Si ces ambitions se révéleront excessives, elles témoignent de l’effervescence de l’époque.
Dialoguer avec la machine : ELIZA, PARRY, SHRDLU et les premiers agents conversationnels
En parallèle, d’autres chercheurs s’attaquent à un défi tout aussi fascinant : la conversation en langage naturel entre l’homme et la machine. Dès 1966, au MIT, Joseph Weizenbaum développe ELIZA, un programme qui simule étonnamment bien un psychothérapeute rogérien. Basé sur de simples reformulations et quelques astuces grammaticales, ELIZA tient des conversations suffisamment réalistes pour tromper certains utilisateurs – qui crurent un instant dialoguer avec un être humain plutôt qu’avec un logiciel. En réalité, le programme ne « comprend » rien : il se contente de renvoyer des réponses pré-enregistrées ou de reformuler les propos de l’interlocuteur. Cette supercherie sophistiquée n’empêche pas des réactions étonnantes. « Jusqu’à ma propre secrétaire qui, un jour, me demanda de quitter le bureau pour pouvoir parler en tête-à-tête avec ELIZA… » racontera plus tard Weizenbaum, stupéfait de voir à quel point on pouvait s’attacher émotionnellement à quelques lignes de code. Considéré comme le premier agent conversationnel de l’histoire, ELIZA dévoile autant le potentiel que les limites de l’IA en langage naturel : il suscite l’illusion de l’intelligence tout en restant dépourvu de compréhension réelle.
L’engouement suscité par ELIZA inspire vite d’autres dialogueurs. En 1972, le psychiatre Kenneth Colby, à Stanford, conçoit PARRY, qui simule cette fois les réponses d’un patient paranoïaque. Plus sophistiqué qu’ELIZA, PARRY sera décrit par son créateur comme « ELIZA with attitude » – ELIZA avec du tempérament. Le programme incorpore un modèle rudimentaire du comportement d’un paranoïaque et mène des échanges si crédibles que lors de tests en aveugle, des psychiatres expérimentés n’arrivent pas à le distinguer d’un véritable patient humain (leurs diagnostics ne furent corrects que dans 48 % des cas, guère mieux que le hasard). C’était la première fois qu’une machine trompait ainsi des experts, faisant franchir un cap symbolique au test de Turing.
Quelques années après ELIZA, en 1970, un autre jalon est posé par Terry Winograd à l’université de Stanford. Son programme baptisé SHRDLU est capable de dialoguer en anglais normal et de manipuler virtuellement des objets dans un “monde de blocs” simplifié. Concrètement, l’utilisateur peut taper des instructions du genre « prends le cône bleu et mets-le sur le cube rouge », et SHRDLU analyse la phrase, planifie les actions nécessaires puis simule le bras manipulateur qui réalise la tâche dans un environnement graphique minimaliste. Cette démonstration, l’une des premières prouesses de compréhension du langage naturel par une machine, montre qu’un ordinateur peut suivre des commandes complexes formulées en langage humain. La contrepartie est que SHRDLU n’opère qu’en terrain très balisé : son petit univers de blocs colorés aux propriétés prédéfinies. En dehors de ce micro-monde, le logiciel serait vite dépassé. Néanmoins, ELIZA, PARRY et SHRDLU marquent les débuts prometteurs des dialogueurs homme-machine, ouvrant la voie à des rêves de communications fluides avec les ordinateurs – un sujet de science-fiction qui commence alors à prendre forme sous nos yeux.
Des promesses sans bornes : l’optimisme débordant de l’IA symbolique
En cette fin des années 1960, l’enthousiasme des pionniers de l’IA est à son comble. Forts de quelques succès préliminaires, beaucoup imaginent que la route vers une machine pensante est quasiment tracée. Les prédictions audacieuses fusent :
Ces déclarations reflètent la foi inébranlable dans l’IA symbolique qui domine alors. On est convaincu que des algorithmes manipulant des symboles et des règles logiques pourront, avec suffisamment de puissance de calcul, reproduire toutes les facettes de l’intelligence humaine. Les avancées rapides des premières années semblent donner raison aux optimistes : des programmes savent déjà démontrer des théorèmes géométriques (le Logic Theorist dès 1956), résoudre des problèmes d’algèbre formulés en anglais courant (le programme STUDENT de Daniel Bobrow en 1964) ou même jouer aux dames (le programme auto-apprenant d’Arthur Samuel) – autant de domaines réputés “intelligents”. Pourquoi pas, demain, conduire une voiture ou traduire n’importe quelle langue ?
Pour surmonter les obstacles restants, les chercheurs adoptent parfois une stratégie de contournement ingénieuse : réduire la portée des problèmes en les étudiant dans des univers fictifs simplifiés, appelés micromondes. C’est ainsi qu’au MIT, Marvin Minsky et Seymour Papert proposent de concentrer la recherche sur un « monde de blocs » épuré. En isolant quelques formes géométriques sur une table, on évite la complexité du monde réel tout en explorant les principes de la vision ou de la robotique. Cette approche des microworlds va inspirer plusieurs travaux novateurs (par exemple en vision artificielle, où Gerald Sussman et ses collègues font reconnaître des scènes de blocs à un ordinateur) et créer un terrain de jeu où l’IA progresse à pas de géant. Le robot Shakey, développé de 1966 à 1972 au Stanford Research Institute, illustre bien cette période d’audace : ce véhicule automoteur expérimental, bardé de capteurs et piloté par un ordinateur, parvient à naviguer dans des pièces en évitant des obstacles et en accomplissant des missions simples comme pousser un objet. En 1970, Shakey fait la une du magazine Life – le même article où Minsky annonce l’imminence d’une IA au niveau humain. Certes, le robot de SRI ne réfléchit qu’à petite échelle, mais son existence même prouve que l’IA n’est plus de la science-fiction. L’ambition est alors sans limites : on prête à l’IA le pouvoir de révolutionner la science et l’industrie, et on l’imagine déjà dialoguant naturellement, jouant les traducteurs instantanés ou pilotant des machines intelligentes.
Le robot mobile Shakey (ici en 1969) symbolise les rêves de l’IA des sixties. Conçu avec des fonds de la DARPA, il combinait caméra, télémètre et planification logique pour exécuter des ordres dans un environnement de test. Ses exploits ont été salués en 1970 comme un tournant en robotique et en IA – Life le présenta comme « la première personne électronique » – même si Marvin Minsky devait admettre plus tard avoir péché par optimisme quant aux délais pour une intelligence comparable à la nôtre.
Un âge d’or financé par la Guerre froide : laboratoires en ébullition et dollars sans compter
Si l’IA connaît un essor si fulgurant dans les années 60, c’est aussi grâce à un contexte socio-technique exceptionnel. En pleine Guerre froide, les États-Unis investissent massivement dans la recherche scientifique et technologique pour garder une longueur d’avance sur l’URSS. Créée en 1958 après le choc du Spoutnik, l’Agence pour les projets de recherche avancée (ARPA) devient le principal bailleur de fonds de l’IA naissante. Sous l’égide clairvoyante de J. C. R. Licklider, l’ARPA adopte une philosophie rare : « financer des personnes, pas des projets », laissant aux chercheurs une liberté quasi totale. Cette pluie de financements sans ingérence engendre un foisonnement d’idées dans des centres comme le MIT, où le duo Marvin Minsky–John McCarthy dirige dès 1959 le premier grand laboratoire d’IA, ou encore à Stanford, Carnegie Mellon et même Édimbourg en Écosse. En juin 1963, par exemple, le MIT reçoit 2,2 millions de dollars pour lancer le Project MAC (qui abrite les travaux d’IA de McCarthy et Minsky), et ARPA continue à verser environ 3 millions annuels durant toute la décennief. Des subventions similaires alimentent le groupe d’Allen Newell et Herbert Simon à Pittsburgh (Carnegie Mellon) et les idées novatrices de Donald Michie au Royaume-Uni. Un véritable réseau de laboratoires d’IA se constitue ainsi, des deux côtés de l’Atlantique, financé largement par les dollars fédéraux américains.
Dans cette course au savoir stimulée par la rivalité Est-Ouest, les militaires entrevoient vite des applications potentielles de l’IA : traduction automatique de documents russes, analyse d’images de reconnaissance aérienne, systèmes d’aide à la décision stratégique, voire robots pour le champ de bataille. Le financement est abondant durant toute la décennie 60, permettant des avancées fondamentales (comme la création du langage LISP, la mise au point d’algorithmes de recherche heuristique, etc.) et des projets interdisciplinaires ambitieux. L’IA devient un domaine en vue, attirant de brillants esprits et s’attirant une certaine couverture médiatique. Des œuvres de fiction populaires – le film 2001, l’Odyssée de l’espace sorti en 1968 avec son ordinateur HAL 9000 doué de parole – alimentent aussi l’imaginaire collectif. À l’aube des années 1970, tout semble concourir à faire de l’intelligence artificielle la prochaine grande révolution scientifique.
Cependant, cet âge d’or repose en partie sur un malentendu : les promesses formulées sont-elles tenables avec les moyens de l’époque ? Derrière l’affichage de confiance, nombre de difficultés sont minimisées. En 1966, un coup de semonce vient des traducteurs automatiques : après des années de recherche, une commission américaine (rapport ALPAC) conclut que les progrès en traduction par ordinateur sont extrêmement décevants. Aux États-Unis, l’ARPA claque la porte du projet et cesse de financer ce qui fut l’un des tout premiers rêves de l’IA – comprendre et traduire le langage humain. Cet épisode, souvent qualifié rétrospectivement de premier « hiver de l’IA », rappelle que les fonds ne sont pas infinis et que l’argent public exige des résultats concrets.
Désillusions et hiver de l’IA : la chute brutale de la fin des années 1970
À mesure que les années 1970 avancent, l’euphorie retombe et la réalité rattrape la recherche en IA. Les obstacles techniques, longtemps sous-estimés, se révèlent plus épineux que prévu. D’abord, la puissance des ordinateurs de l’époque est dramatiquement insuffisante. En 1976, l’ingénieur Hans Moravec calcule qu’un ordinateur devrait être des millions de fois plus rapide pour espérer simuler ne serait-ce qu’un semblant d’intelligence générale. Il illustre ce fossé par une image parlante : « en dessous d’un certain seuil de puissance, un avion reste cloué au sol, incapable de décoller ». Or, les machines des seventies en sont encore à raser les pâquerettes : le supercalculateur le plus rapide de 1976 (le Cray-1) atteint péniblement 130 MIPS, quand Moravec estime à 1 000 MIPS le minimum pour reproduire la vision d’un simple œil humainrg. La mémoire pose aussi problème – ainsi, un programme de compréhension du langage naturel comme celui du chercheur Ross Quillian doit se limiter à 20 mots de vocabulaire faute de pouvoir en stocker davantagef. En un mot, le matériel ne suit pas.
Ensuite, les chercheurs se heurtent à des limites théoriques. En 1972, l’informaticien Richard Karp démontre que de nombreux problèmes sont NP-complets, c’est-à-dire d’une complexité exponentielle qui explose littéralement à grande échelle. Cette « explosion combinatoire », pointée aussi par le mathématicien James Lighthill dans un rapport retentissant en 1973, signifie qu’on ne sait pas résoudre en un temps raisonnable des tâches un peu trop complexes – un sérieux revers pour l’IA, qui espérait généraliser ses micro-démonstrations de laboratoire. Lighthill, mandaté par le gouvernement britannique pour évaluer l’état de l’IA, dresse d’ailleurs un constat cinglant : l’IA n’a pas atteint ses « ambitieux objectifs », conclut-il, en recommandant l’arrêt des financements au Royaume-Uni. Ses préconisations provoquent ni plus ni moins le démantèlement des équipes d’IA outre-Manche.
Aux États-Unis, la désillusion est plus progressive mais tout aussi réelle. L’ARPA – rebaptisée DARPA – commence à perdre patience face au manque de résultats tangibles. Après avoir soutenu sans compter les chercheurs pendant plus d’une décennie, l’agence revoit sa stratégie. Un événement charnière est le Mansfield Amendment voté par le Congrès en 1969, en plein désarroi post-Vietnam : il impose au Département de la Défense de ne sponsoriser que des projets à applications militaires directes. Les financements “libres” s’évaporent, remplacés par des contrats orientés vers des objectifs précis (par exemple concevoir un char autonome ou un système expert pour la gestion des batailles). Les universitaires, eux, peinent à répondre à ces exigences de court terme. En 1973, la DARPA, très déçue par les piètres avancées d’un programme de reconnaissance vocale à Carnegie Mellon, coupe subitement les vivres (3 millions de dollars annuels) de ce projet pourtant crucial. Dès 1974, il devient extrêmement difficile de financer de nouveaux travaux en IA.
Parallèlement aux contraintes budgétaires, l’IA essuie des critiques intellectuelles acerbes. Certains philosophes et informaticiens commencent à douter ouvertement qu’elle puisse réaliser ses promesses. Le plus virulent est sans doute Hubert Dreyfus, professeur à Berkeley, qui publie en 1972 What Computers Can’t Do. Dreyfus tourne en dérision l’optimisme naïf des années 60 et argue que les ordinateurs, manipulant des symboles sans « sens », sont incapables d’égaler la cognition humaine fondée sur l’intuition, l’expérience vécue et le contexte du monde réel. Dans un pamphlet antérieur resté fameux, il avait comparé les projets d’IA à l’alchimie médiévale, cherchant vainement à transformer du plomb en or. D’autres, comme le Britannique James Lovelock, ironisent sur ces chercheurs promettant une « super-intelligence » alors qu’ils peinent à simuler la compétence d’un insecte. Même Weizenbaum, le père d’ELIZA, prend ses distances : choqué de voir son programme détourné en pseudo-thérapeute, il publie en 1976 Computer Power and Human Reason, un livre-manifeste mettant en garde contre la déshumanisation potentielle qu’entraînerait une confiance aveugle dans les machines pensantes. Ces voix dissidentes, d’abord ignorées par la majorité des spécialistes, contribuent pourtant à saper l’aura du domaine. L’opinion publique, abreuvée de promesses non tenues, devient plus sceptique vis-à-vis de l’IA à la fin des années 1970.
Ainsi, en l’espace d’une décennie, l’intelligence artificielle est passée de l’exaltation à la remise en question. Vers 1975–1976, la combinaison de résultats insuffisants, de financements coupés et de critiques cinglantes plonge le secteur dans une phase de morosité que l’on appellera plus tard le « winter of AI ». Il s’agit en fait du second « hiver de l’IA », le premier ayant déjà frappé brièvement au milieu des années 1960 avec l’échec de la traduction automatique. Cette fois, le coup de froid est plus profond : de 1974 à 1980 environ, la recherche fondamentale en IA tourne au ralenti, faute de soutiens. Certains laboratoires ferment, d’autres survivent en se réinventant. Marvin Minsky lui-même admet que la communauté s’était « prise au piège d’un enchevêtrement de surenchères » dans les prédictions. L’heure est à l’autocritique et à la modestie retrouvée. L’IA symbolique, reine des années 60–70, vient de rencontrer ses limites. Il faudra de nouvelles idées – et de nouvelles ressources – pour la tirer de son hibernation dans les années 1980.
1970–1980 : l’IA en sommeil, en attendant la reprise
La fin des années 1970 se conclut donc sur un constat mitigé. Certes, la période a engendré des avancées majeures : les systèmes experts ont prouvé l’utilité concrète de l’IA dans des domaines spécialisés, les agents conversationnels ont fait entrevoir des interactions homme-machine plus naturelles, et de solides fondations ont été posées (structures de données, langages comme LISP, etc.). Mais les ambitions initiales étaient trop hautes. L’IA n’a pas révolutionné le monde en vingt ans comme l’annonçaient ses porte-parole. En 1980, l’ordinateur le plus intelligent reste loin, très loin, de rivaliser avec le cerveau humain dans toute sa généralité.
Pour autant, l’histoire est loin d’être terminée. Telles les saisons, l’IA connaîtra d’autres printemps et d’autres hivers. Dès le début des années 1980, un nouvel élan viendra du Japon avec le projet des « ordinateurs de cinquième génération », relançant l’optimisme et les financements autour de l’intelligence artificielle. Mais c’est une autre époque, et une autre histoire. En refermant le chapitre des années 1960–1970, on comprend mieux combien ces deux décennies ont été formatrices : elles ont forgé les concepts, les réussites et les écueils qui structurent encore aujourd’hui le domaine de l’IA. Comme l’écrit la chercheuse Pamela McCorduck, « la grande leçon des années soixante-dix a été que les comportements intelligents dépendaient énormément du traitement de la connaissance », plus que de la seule logique brute. Une leçon apprise à la dure, au prix d’un hiver glacial pour la recherche en IA… mais qui aura permis à la discipline de rebondir, plus humble et plus solide, dans les décennies suivantes.