Passer au contenu
7
Article précédent Article suivant

Chat GPT, raconte-moi ton histoire...

IA : ChatGPT c'est quoi ? Comment ça fonctionne illustration

ChatGPT a été mis en ligne en novembre 2022 et a tout de suite connu un succès mondial. À peine deux mois après son lancement, il comptait déjà 100 millions d’utilisateur·ices (janvier 2023), ce qui en fait l’une des applications avec le taux de croissance le plus élevé à son lancement.

Mais comment fonctionne-t-il ? Quelles sont les perspectives que nous offrent ces technologies ? Quelles sont également leurs limites et quels pièges éviter lorsqu’on les utilise ?

État des lieux et entretien avec Jean-François Raskin, chercheur au département des sciences informatiques de l’ULB, Faculté des Sciences.

ChatGPT…en bref

ChatGPT est un modèle de langage présenté comme un agent conversationnel (chat bot). L’algorithme GPT-3 (pour Generative Pre-trained Transformer) a été développé par OpenAI, une entreprise américaine spécialisée dans le développement d’intelligences artificielles (IA). OpenAI est également connue pour avoir développé DALL-E, une IA capable de générer des images à partir de texte.

Très schématiquement, ChatGPT a une fonction similaire à celle de la fonction « prédiction » du clavier de nos smartphones : prédire quel sera le prochain mot. Pour cela, l’algorithme est basé sur ce que l’on nomme un modèle de langage. Le modèle de langage est un modèle statistique permettant de modéliser la distribution de séquences de mots dans une langue donnée. Son but est donc de déterminer quelle séquence de mots serait la plus probable dans un contexte donné.

De manière très schématique et simplifiée, voici comment le modèle fonctionne :

Chaque ramification possède un score de probabilité. La transition avec la probabilité la plus élevée (ici, en noir), sera privilégiée par l’algorithme. Les transitions les moins probables (en gris) seront quant à elles mises de côté.

Pour pouvoir calculer la probabilité des transitions, l’algorithme de ChatGPT a été entrainé sur de très gros corpus de textes (environ 500 milliards de mots pour l’anglais) desquels ont été extraits des modèles statistiques permettant de produire des phrases inédites. Autrement dit, GPT-3 analyse de manière statistique la construction des phrases et les enchainements de mots dans une langue donnée pour pouvoir reproduire des constructions plausibles.

La puissance étonnante de ChatGPT réside principalement dans ses paramètres qu’il peut ajuster pour répondre aux différentes tâches qu’il doit exécuter. L’algorithme GPT-3 possède environ 175 milliards de paramètres ajustables d’après OpenAI, ce qui lui permet donc de s’adapter à un grand nombre de tâches et de contraintes.

Depuis quand s’intéresse-t-on aux agents conversationnels ? Quelle est l’histoire de leur développement ?

Jean-François Raskin

On s’est intéressés à la question des agents conversationnels dès les débuts de l’informatique. À la fin des années 30, le mathématicien Alan Turing propose une expérience de pensée intitulée Machine de Turing. Dans celle-ci, Turing imagine une intelligence artificielle qui parviendrait à se faire passer pour un être humain dans un échange écrit avec une personne. L’idée d’imitation de l’humain est présente depuis le début de l’informatique, avec l’intuition que la technologie peut aller très loin. On retrouve cette idée d’imitation dans les chat-bots comme ChatGPT.

Dans les années 60, Joseph Weizenbaum développe ELIZA, une IA capable d’imiter le style conversationnel d’un·e psychiatre via l’extraction de mots-clés et la reformulation. Il s’agit davantage d’un tour de passe-passe se basant sur ce que l’on appelle le pattern-matching : des phrases-types que l’on peut modifier selon le contexte en changeant des mots-clés. Par exemple, si une personne écrit l’affirmation “X”, ELIZA répondra “pourquoi dites-vous que X ?”.

Plus tard, avec le développement des techniques informatiques, émerge l’idée d’un traitement statistique du langage, notamment avec les travaux de Claude Shannon, mathématicien qui travaille à quantifier les informations contenues dans un message. On s’intéresse alors à la description du langage en termes statistiques à partir de corpus de textes. Néanmoins, les technologies de l’époque ne permettent pas de généraliser pour produire des phrases inédites.
Depuis les progrès du deep learning (apprentissage profond), les algorithmes sont capables d’apprendre la distribution des mots du langage en la généralisant. Ils peuvent donc produire des énoncés inédits.

Le challenge d’imitation de l’être humain par une machine est donc présent depuis Turing.

Peut-on dire que ChatGPT modifie notre manière d’interagir avec la technologie, si oui, en quoi ?

Jean-François Raskin

Il s’agit probablement d’une des révolutions les plus importantes dans la manière d’interagir avec un ordinateur. Dans l’informatique traditionnelle, l’interaction avec la machine est très codée, notamment via les langages de programmation, définis par une grammaire et formalisés avec une syntaxe rigide. Il est donc nécessaire de maîtriser ces langages et de formuler des requêtes précises.

Avec l’avènement de Google, l’addition de mots-clés suffit à formuler une requête et obtenir des informations. Mais les interactions “pré-chatGPT” restent, en dehors de cela, très rigides et définies par l’interface-machine.

Les technologies telles que ChatGPT et les outils de traitement automatique de la parole (assistants vocaux tels que Siri, OK Google, Cortana, etc.) bouleversent cette communication rigide. Ils sont capables de faire sens d’une multitude d’informations avec les modèles de langage et leurs interactions avec des bases de données. Ils font en quelque sorte le pont entre le langage naturel* et les données. Nous avons désormais la possibilité d’expliquer en langage naturel un certain nombre de requêtes qui, autrefois, auraient nécessité de maîtriser certains langages de programmation.

  • Le langage naturel ou langage ordinaire désigne le langage parlé par les humains, en opposition aux langages formels (comme les langages informatiques) ou aux langues construites (langues inventées, créées “artificiellement”, comme l’espéranto).

Quelle est, de manière générale, la plus-value de tels outils ?

Jean-François Raskin

Ce sont des technologies capables de générer, résumer, reformuler des textes et des idées. Elles peuvent donc être des aides à l’écriture et à la création de manière générale, permettant une sorte de création assistée par ordinateur.

La flexibilité dans l’interaction avec la machine telle que nous l’avons décrite plus tôt permet des applications qui n’étaient pas imaginables il y a encore quelques années. Cela pourrait également nous permettre l’automatisation d’une série de tâches peu gratifiantes.

Quels peuvent être, au contraire, les aspects négatifs ? Y a-t-il des précautions à prendre pour utiliser ces outils de manière responsable ? Qu’en-est-il de l’aspect humain ?

Jean-François Raskin

Il existe déjà de nombreuses technologies qui pourraient potentiellement « nuire » à nos capacités humaines : utiliser Google au lieu de retenir certaines informations, prendre le vélo électrique au lieu du vélo classique, utiliser un GPS et pas son sens de l’orientation, etc. Mais elles nous facilitent avant tout la vie sur certains aspects si on en fait bon usage. Peut-être que des personnes adeptes du vélo électrique n’auraient jamais fait de vélo classique sans cette aide apportée par la technologie par exemple.

Toutes les technologies ont une face positive et négative. Dans le cas qui nous occupe, on touche à l’intelligence, à la possibilité de mener des raisonnements complexes. Il y a évidemment un danger à déléguer trop de tâches. Mais c’est avant tout un débat de société qui doit avoir lieu, avec parfois une série de craintes exprimées. Certaines technologies existent pour déléguer des décisions à des machines. Jusqu’où veut-on aller ? Avec quelles implications ? Comment se prémunir de biais ?

Ces technologies nous offrent beaucoup de possibilités, il serait dommage de passer à côté. Pour cela, il est nécessaire d’avoir des débats sérieux sur les implications sociales, économiques et philosophiques de ces outils qui, dans certains cas, peuvent représenter un danger pour la liberté de pensée. C’est un débat inhérent à toutes les révolutions technologiques qui possèdent un aspect fondamental de rapport à l’humanité (raisonnement, langage naturel, etc.). Il est primordial de garder un esprit critique et de douter de ce qui est proclamé par ces outils.

À quoi pourrait-on s’attendre à l'avenir ?

Jean-François Raskin

On assiste de plus en plus au développement de capacités technologiques qu’on pensait irréalisables avec des ordinateurs. Sans doute que de nombreux changements vont nous surprendre dans les années à venir.

On se rend compte des potentiels dangers et dérives que ces outils peuvent amener, c’est pourquoi il est nécessaire d’en débattre et de les encadrer avec des législations sur le sujet. En Union Européenne, nous avons une administration généralement proactive à ce niveau. Les législations vont donc probablement s’adapter en conséquence également, même si les décisions ne sont pas toujours prises par le Parlement.