En 1950, Alan Turing, l’informaticien britannique qui a déchiffré le code Enigma pendant la Seconde Guerre mondiale, a écrit un article dans lequel il posait une question apparemment absurde :”Les machines peuvent-elles penser ?”Les débuts à la fin de l’année dernière du ChatGPT étrangement réaliste ont semblé nous rapprocher d’une réponse. Du jour au lendemain, un chatbot à base de silicium entièrement formé est sorti de l’ombre numérique. Il peut créer des blagues, rédiger des textes publicitaires, déboguer du code informatique et converser sur tout et n’importe quoi. Cette nouvelle réalité troublante est déjà décrite comme l’un de ces”points de basculement”dans l’histoire de l’intelligence artificielle.
Mais cela a mis du temps à venir. Et cette création particulière est en gestation dans les laboratoires d’informatique depuis des décennies.
Pour tester sa proposition de machine à penser, Turing a décrit un”jeu d’imitation”, où un être humain interrogeait deux répondants situés dans une autre chambre. L’un serait un être humain en chair et en os, l’autre un ordinateur. L’interrogateur serait chargé de déterminer qui était quoi en posant des questions via un”téléimprimeur”.
Turing a imaginé un ordinateur intelligent répondant aux questions avec une facilité suffisante pour que l’interrogateur ne parvienne pas à faire la distinction entre l’homme et la machine. Alors qu’il concédait que les ordinateurs de sa génération étaient loin de passer le test, il a prédit qu’à la fin du siècle,”on pourra parler de machines pensant sans s’attendre à être contredit”.
Son essai contribué à lancer des recherches sur l’intelligence artificielle. Mais cela a également déclenché un débat philosophique de longue date, car l’argument de Turing a effectivement mis de côté l’importance de la conscience humaine. Si une machine ne pouvait que reproduire l’apparence de la pensée-mais sans en avoir conscience-était-ce vraiment une machine à penser ?
Pendant de nombreuses années, le défi pratique de construire une machine qui pourrait jouer l’imitation jeu a éclipsé ces questions plus profondes. Le principal obstacle était le langage humain, qui, contrairement au calcul de problèmes mathématiques élaborés, s’est avéré remarquablement résistant à l’application de la puissance de calcul.
Ce n’était pas faute d’avoir essayé. Harry Huskey, qui a travaillé avec Turing, est rentré chez lui aux États-Unis pour construire ce que le New York Times a décrit à bout de souffle comme un”cerveau électrique”capable de traduire des langues. Ce projet, que le gouvernement fédéral a aidé à financer, était motivé par les impératifs de la guerre froide qui faisaient de la traduction du russe vers l’anglais une priorité.
L’idée que les mots pouvaient être traduits de manière individuelle — un peu comme le déchiffrage de code-s’est rapidement précipité tête baissée dans les complexités de la syntaxe, sans parler des ambiguïtés inhérentes aux mots individuels. Le « feu » faisait-il référence aux flammes ? Fin d’emploi ? La gâchette d’une arme à feu ?
Warren Weaver, l’un des Américains à l’origine de ces premiers efforts, a reconnu que le contexte était essentiel. Si « feu » apparaissait près de « pistolet », on pourrait tirer certaines conclusions. Weaver a appelé ces types de corrélations le”caractère sémantique statistique du langage”, une idée qui aurait des implications importantes dans les décennies à venir.
Les réalisations de cette première génération sont décevantes par rapport aux normes d’aujourd’hui. Les chercheurs en traduction se sont retrouvés bloqués par la variabilité de la langue et en 1966, un rapport parrainé par le gouvernement a conclu que la traduction automatique était une impasse. Le financement s’est tari pendant des années.
Mais d’autres ont poursuivi des recherches dans ce qui est devenu connu sous le nom de traitement du langage naturel, ou NLP. Ces premiers efforts visaient à démontrer qu’un ordinateur, doté de suffisamment de règles pour guider ses réponses, pouvait au moins essayer de jouer au jeu de l’imitation.
Typique de ces efforts était un programme qu’un groupe de chercheurs a dévoilé en 1961. Surnommé”Baseball”, le programme s’est présenté comme une”première étape”permettant aux utilisateurs de”poser des questions à l’ordinateur en anglais ordinaire et de faire en sorte que l’ordinateur réponde directement aux questions”. Mais il y avait un hic: les utilisateurs ne pouvaient poser que des questions sur le baseball stockées dans l’ordinateur.
Ce chatbot a vite été éclipsé par d’autres créations nées à l’ère jurassique du numérique: SIR (Semantic Information Retrieval), qui a fait ses débuts en 1964; ELIZA, qui a répondu aux déclarations par des questions à la manière d’un thérapeute attentionné ; et SHRDLU, qui permettait à un utilisateur de demander à l’ordinateur de déplacer des formes en utilisant un langage ordinaire.
Bien que grossières, bon nombre de ces premières expériences ont contribué à innover dans la façon dont les humains et les ordinateurs pourraient interagir-comment, par exemple, un l’ordinateur pourrait être programmé pour”écouter”une requête, la retourner et répondre d’une manière crédible et réaliste, tout en réutilisant les mots et les idées posées dans la requête d’origine.
D’autres ont cherché à former des ordinateurs pour générer des œuvres originales de poésie et de prose avec un mélange de règles et de mots générés au hasard. Dans les années 1980, par exemple, deux programmeurs publient The Policeman’s Beard Is Half Constructed, qui est présenté comme le premier livre entièrement écrit par un ordinateur.
Mais ces démonstrations occultent une révolution plus profonde qui se prépare dans le monde de PNL. Au fur et à mesure que la puissance de calcul augmentait à un rythme exponentiel et qu’un nombre croissant d’œuvres devenaient disponibles dans un format lisible par machine, il devenait possible de construire des modèles de plus en plus sophistiqués qui quantifiaient la probabilité de corrélations entre les mots.
Cette phase, qui un récit décrit à juste titre comme « massive data bashing » a pris son envol avec l’avènement d’Internet, qui offrait un corpus toujours croissant de textes pouvant être utilisés pour dériver des directives probabilistes « douces » permettant à un ordinateur de saisir les nuances de Langue. Au lieu de « règles » dures et rapides qui cherchaient à anticiper chaque permutation linguistique, la nouvelle approche statistique a adopté une approche plus flexible qui était, le plus souvent, correcte.
La prolifération des chatbots commerciaux est née de cette recherche, tout comme d’autres applications : la reconnaissance linguistique de base, les logiciels de traduction, les fonctionnalités de correction automatique omniprésentes et d’autres fonctionnalités désormais courantes de nos vies de plus en plus connectées. Mais comme le savent tous ceux qui ont crié sur un agent artificiel de la compagnie aérienne, ceux-ci avaient définitivement leurs limites.
En fin de compte, il s’est avéré que la seule façon pour une machine de jouer au jeu de l’imitation était d’imiter l’humain cerveau, avec ses milliards de neurones et de synapses interconnectés. Les réseaux de neurones dits artificiels fonctionnent à peu près de la même manière, passant au crible les données et établissant des connexions de plus en plus solides au fil du temps via un processus de rétroaction.
La clé pour y parvenir est une autre tactique distinctement humaine : pratiquer, pratiquer, pratiquer. Si vous entraînez un réseau de neurones en lui faisant lire des livres, il peut commencer à créer des phrases qui imitent le langage de ces livres. Et si vous avez le réseau de neurones qui lit, disons, tout ce qui est écrit, il peut devenir vraiment très bon pour communiquer.
Ce qui est, plus ou moins, ce qui est au cœur de ChatGPT. La plateforme a été entraînée sur un vaste corpus de travaux écrits. En effet, l’intégralité de Wikipédia représente moins de 1 % des textes qu’il a récupérés dans sa quête pour imiter la parole humaine.
Grâce à cette formation, ChatGPT peut sans doute triompher dans le jeu de l’imitation. Mais quelque chose d’assez curieux s’est produit en cours de route. Selon les normes de Turing, les machines peuvent désormais penser. Mais la seule façon dont ils ont pu réussir cet exploit est de devenir moins comme des machines avec des règles rigides et plus comme des humains.
C’est quelque chose qui vaut la peine d’être considéré au milieu de toute l’angoisse occasionnée par ChatGPT. L’imitation est la plus sincère des flatteries. Mais est-ce les machines que nous devons craindre, ou nous-mêmes ?
© 2023 Bloomberg LP
Des liens d’affiliation peuvent être générés automatiquement-consultez notre déclaration d’éthique pour plus de détails.