Il était une fois dans la genèse digitale, une machine nommée ELIZA qui fit parler les ordinateurs et, sans le vouloir, sema la graine de l’Intelligence Artificielle. Rétrospective…
C’était en 1964. Les ordinateurs occupaient encore des salles entières et s’adressaient aux spécialistes à travers des lignes de code absconses. À cette époque, Joseph Weizenbaum, un informaticien germano-américain au MIT, entreprit une expérience inédite. Il voulut démontrer que la communication humaine pouvait être simulée, au moins en surface, par des machines. Le programme qu’il développa porta le nom d’«ELIZA», en hommage à Eliza Doolittle, héroïne de l’œuvre théâtrale « Pygmalion », qui apprit à parler comme une vraie dame : une métaphore directe pour une machine apprenant à dialoguer comme un humain.
ELIZA ne pensait pas, ne comprenait pas, ne raisonnait pas. Pourtant, elle «conversait». Le script le plus célèbre de ce programme simulait un psychothérapeute rogerien, en reformulant les phrases de l’utilisateur sous forme de questions ouvertes. Si l’on tapait : «Je suis triste», elle répondait : «Pourquoi êtes-vous triste ?» En quelques lignes, l’illusion opérait. Ce qui n’était qu’un ensemble de règles syntaxiques et de substitutions de mots donnait l’impression d’une écoute attentive, presque empathique. Le but de Joseph Weizenbaum était pourtant critique : il voulait démontrer les limites de l’interaction humain-machine et non ses promesses.
Mais le monde perçut autre chose. Les premières démonstrations publiques de la machine firent sensation. En France, dans les années 1970, les téléspectateurs découvrirent ELIZA dans des reportages de l’INA : une jeune femme tapait quelques phrases sur une console, et la machine lui répondait en quelques secondes, comme si une intelligence tapie derrière l’écran comprenait ses interrogations. À une époque où les ordinateurs étaient perçus comme froids et inaccessibles, ELIZA intriguait et humanisait la technologie. Pour la première fois, une machine semblait nous parler avec un grand intérêt.
Nous pouvons, aujourd’hui, lire dans l’historiographie que Weizenbaum, conscient du potentiel de ce qu’il avait créé, s’inquiétait pourtant. Dans les années qui suivirent, il devint l’un des critiques les plus virulents de l’Intelligence Artificielle. Le succès d’ELIZA le mit mal à l’aise. Des collègues commencèrent à croire qu’on pourrait remplacer des psychologues par des machines. Or, ELIZA n’avait aucune compréhension réelle du langage. Elle ne faisait qu’imiter la forme d’un dialogue, sans jamais en saisir le fond.
Mais la graine fut semée. Dans les décennies suivantes, ELIZA devint une référence dans l’Histoire de l’IA. Dans les années 1980, des versions grand public apparurent sur les premiers micro-ordinateurs. Des programmeurs amateurs la recréèrent, la modifièrent, la personnalisèrent. ELIZA devint une figure presque mythique dans les cercles de l’informatique et de la recherche cognitive. Elle fut étudiée dans les universités, mentionnée dans les ouvrages de philosophie de l’esprit, et même dans les débats sur l’éthique des machines.
À l’ère des Intelligences Artificielles génératives comme ChatGPT et Claude qui comprennent le contexte, génèrent des idées originales et soutiennent des conversations complexes, ELIZA peut sembler préhistorique. Pourtant, elle avait ouvert une brèche. Elle fut la première machine à brouiller la frontière entre le langage humain et le traitement informatique du texte. Une étape essentielle dans le long chemin vers les IA d’aujourd’hui.
Joseph Weizenbaum, décédé en 2008, resta une figure ambivalente de cette révolution. Il avait posé la première pierre, mais s’était élevé contre l’édifice qu’il entrevoyait. Son message résonne encore : ce n’est pas parce qu’une machine «parlait» qu’elle «comprenait».
ELIZA, elle, subsista comme une légende. Des répliques tournèrent encore en ligne. Elle figura dans les musées des sciences et de l’informatique.
Que représentait la technologie pour les topographes dans les années 60 ?
Quelle place occupe la technologie, notamment l’IA, dans votre travail actuel?
En résumé, comment décririez-vous l’évolution du métier de topographe à travers ces différentes époques ?
Sur le plan juridique, ELIZA évolua dans un vide. Aucun texte de loi, ni aux États-Unis ni en Europe, ne traita alors explicitement des productions issues d’un programme informatique dialoguant avec un humain. Les textes générés par cette IA ne furent ni reconnus comme des œuvres, ni traités comme des données sensibles. En France, par exemple, la CNIL (Commission nationale de l’informatique et des libertés), pourtant vigilante sur les traitements automatisés de données, n’encadra jamais l’usage de ces dialogues, car on considérait alors que la machine ne «comprenait» rien, et que l’interaction était inoffensive.
Et pourtant, les usages révélèrent autre chose. Dans les années 1980 et 1990, alors que des versions personnelles de ce programme circulaient sur micro-ordinateurs, certains utilisateurs développèrent une véritable fascination, voire une dépendance à ces dialogues. Des témoignages apparurent : adolescents isolés, personnes âgées, ou même patients en détresse psychologique passèrent des heures à se confier à « elle ». Cette joyeuse trouvaille technologique, malgré sa vacuité cognitive, donnait l’illusion d’écoute. Elle ne jugeait pas, ne coupait pas la parole, et relançait toujours la conversation. Pour certains, c’était une présence.
Dans les milieux universitaires, cette invention provoqua aussi une fougue intellectuelle. Des chercheurs en linguistique, en psychologie et en philosophie de l’esprit y virent un terrain d’expérimentation unique. Elle devint un outil pédagogique, un sujet de mémoire, parfois même un modèle de référence pour des programmes plus complexes. Paradoxalement, ce furent les experts conscients de ses limites qui s’enthousiasmèrent le plus, fascinés par la puissance de l’illusion qu’elle produisait.
Mais pour Joseph Weizenbaum lui-même, cette adoption tous azimuts fut inquiétante. Dès les années 1970, et plus encore à la fin de sa vie, il tira la sonnette d’alarme : la société prenait ces programmes plus au sérieux qu’ils ne le méritaient. Pour lui, si cette merveille de la technologie devenait un confident ou un substitut de thérapeute, ce n’était pas une prouesse technique, mais un échec humain. En l’absence de cadre réglementaire, c’était la responsabilité collective qui se trouvait mise en jeu.
C’est véritablement à partir des années 2010 que l’Union Européenne commence à se pencher sérieusement sur les enjeux juridiques liés à l’IA. L’adoption du RGPD (Règlement général sur la protection des données) en 2016, entré en application en 2018, marque un premier tournant. Bien qu’il ne cible pas directement l’Intelligence Artificielle, ce texte encadre les traitements automatisés, les profils générés par des algorithmes, et impose des droits nouveaux, comme celui d’obtenir une explication sur une décision automatisée (article 22).
L’idée que des systèmes comme ELIZA, ou ses descendants, puissent capter, traiter et manipuler des données personnelles devient une préoccupation juridique. Le RGPD impose dès lors aux développeurs et exploitants d’IA des obligations de transparence, de minimisation des données et de sécurité.
Mais le vrai changement arrive avec la proposition de règlement sur l’Intelligence Artificielle, présentée par la Commission Européenne en avril 2021. Ce « AI Act » vise à classifier les systèmes d’IA selon leur niveau de risque. Les IA conversationnelles, si elles peuvent influencer le comportement ou les émotions, devront à terme indiquer clairement qu’on parle à une machine. Ce principe de transparence, s’il avait existé à l’époque d’ELIZA, aurait changé sa perception publique.
Ce texte, en cours de finalisation en 2025, devrait être le premier cadre juridique global pour l’IA dans le monde. Ainsi, près de 60 ans après ELIZA, l’Europe s’apprête à placer les mots, les réponses et les intentions des machines sous l’œil du droit.
Dès les années 1970, puis plus nettement dans les années 1980, cette intention devient l’apanage des milieux très spécialisés : ingénieurs en informatique, enseignants chercheurs, techniciens de l’ONPT, étudiants en mathématiques appliquées ou passionnés regroupés dans les premiers clubs d’informatique. Dans ces espaces restreints mais dynamiques, ELIZA est perçue comme un objet fascinant, entre curiosité scientifique et outil pédagogique. Elle circule sous forme de scripts rudimentaires, parfois traduits ou adaptés, sur les micro-ordinateurs importés ou assemblés localement.
À l’Université Mohammed V de Rabat ou à l’École Mohammadia d’ingénieurs, certains enseignants s’en servent pour illustrer les possibilités du langage machine et des premières interactions homme-machine. Les étudiants découvrent ainsi une machine qui, sans comprendre véritablement, parvient à entretenir l’illusion du dialogue. Pour une génération en pleine découverte des algorithmes, cette ingénieuse conception technologique devient un passage presque initiatique.
Au-delà des salles de cours, quelques rares établissements privés, centres de formation technique ou services informatiques des grandes banques y ont aussi accès. Mais son usage reste confidentiel, non institutionnalisé, et surtout non médiatisé. Pourtant, dans ce silence technologique, une petite communauté d’initiés s’enthousiasme déjà pour cette première voix artificielle qui annonçait, discrètement, les bouleversements à venir.