On ne présente plus ChatGPT, nouvelle star technologique qui vous parle comme le ferait un humain via Whatsapp ou Telegram. La fluidité de sa conversation, quelque que soit le sujet, vous invite : “Demandez-moi n’importe quoi et je vous le produirai !”. Journalistes, avocats, écrivains, musiciens, graphistes, vous êtes désormais obsolètes. Et une fois de plus, la couverture médiatique souligne ce paradoxe: la technologie inonde nos vies, mais comprendre son fonctionnement semble sans intérêt lorsqu’il s’agit d’évaluer son potentiel et ses dangers. Seule l’émotion prime. Ici la fascination et la peur.
Article d’opinion, par le Prof. Benoît Garbinato, Département des Systèmes d’Information à HEC Lausanne
Le principe de base de ChatGPT est pourtant facile à comprendre. Il s’agit d’une version sur-vitaminée de l’algorithme vous suggérant le prochain mot de la phrase que vous écrivez sur Whatsapp par exemple. Ses réponses sont simplement la suite de mots la plus probable produite à partir de textes préalablement analysés. Là où ChatGPT impressionne en revanche, c’est par le volume vertigineux de données et de paramètres qui déterminent ses réponses.
Selon une idée reçue, ChatGPT affinerait en permanence ses “connaissances”. Or il n’en est rien et ce pour une excellente raison : si vous laissez un agent conversationnel se nourrir de ce qu’il trouve sur Internet, il ne tardera pas à colporter toutes sortes de propos nauséabonds. C’est ce qui arriva en 2016 lorsque Microsoft mis en ligne son agent conversationnel.
Mais alors, pourquoi ChatGPT produit-il des réponses souvent raisonnables, voire correctes ?
La réponse est d’une banalité confondante : un grand nombre d’humains, payés moins de $2/heure, ont manuellement nettoyé les données ayant servi à l’entrainer. Ainsi, ChatGPT ne sait pas que la terre est ronde, il a juste été entrainé sur un corpus de textes expurgé de toute phrase du type « la terre est plate ».
Comment se fait-il que nous confondions intelligence humaine et production automatique de textes probabilistes ?
La réponse tient peut-être au fait que les humains se comportent souvent comme des automates qui reproduisent, avec des variations mineures, des discours normés et prévisibles. La question est donc moins de savoir si des automates sont (ou seront) capables de se comporter comme des humains, mais dans quelle mesure les humains se comportent comme des automates dans de nombreuses situations.
A moyen terme, les humains ne seront pas remplacés par des machines intelligentes, mais par d’autres humains, bien moins nombreux, sachant utiliser des outils comme ChatGPT. Le vrai danger se trouve plutôt dans la diminution, chez une majorité, de la capacité à construire sa propre vision du monde et à l’exprimer de manière articulée. Si demain, la plupart des graphistes changent de métier et les nouvelles images ne sont plus que des agrégats générés automatiquement, arrivera un moment où les intelligences artificielles ré-ingurgiteront leurs propres images et en produiront des variantes insipides ad nauseam.
Comme beaucoup d’innovations, ChatGTP est un fabuleux outil aux mains d’utilisateurs avertis, mais terriblement dangereux lorsqu’il est manipulé par des utilisateurs candides. L’avenir dira si cet outil s’inscrit dans la lignée de ce que l’ordinateur a été jusqu’ici, à savoir une sorte de vélo pour l’esprit, qui ne se substitue pas à notre force musculaire mais la multiplie et nous permet d’aller plus loin, selon une métaphore chère à Steve Jobs. Avec l’intelligence artificielle, voici venu le vélo électrique : son facteur multiplicateur est plus grand, mais le principe reste le même, puisque c’est toujours nous qui fournissons le mouvement de base. Une alternative plus sombre s’offre néanmoins à nous: l’intelligence artificielle devient un SUV écrasant tout sur son passage, la subtilité de notre intelligence humaine, notre créativité, notre empathie au monde.
La bonne nouvelle : c’est pour l’instant encore à nous que revient ce choix.
Lire l’article complet sur le blog du Prof. Garbinato
Regarder la vidéo réalisée par le CSE UNIL : IA génératives et enseignement supérieur : entretien avec le professeur Benoît Garbinato