À l’occasion du premier anniversaire du lancement public de ChatGPT, le professeur Bono Garbinato du département des systèmes d’information des facultés HEC de l’UNIL partage son analyse sur les IA génératives, leur fonctionnement et leurs implications pour l’enseignement. Ingénieur de formation diplômé de l’EPFL, le professeur Garbinato a travaillé plusieurs années dans l’industrie avant de rejoindre le monde académique en 2004. Bien que l’intelligence artificielle ne soit pas son domaine de spécialité, sa solide formation en algorithmique lui permet d’apporter un regard éclairé sur ces technologies.
Un système basé sur les probabilités
Le professeur Garbinato explique que le fonctionnement d’un modèle de langage comme ChatGPT repose sur un principe similaire à celui des systèmes de prédiction de texte des smartphones : « C’est très simplifié mais c’est le même type d’algorithme que vous avez sur votre téléphone lorsque vous essayez d’écrire un message et que le logiciel vous suggère la fin de vos phrases. » La différence principale réside dans l’échelle : ChatGPT est entraîné sur une masse de données considérablement plus importante et prend en compte des millions de paramètres.
Un point crucial soulevé par le chercheur est que ces systèmes n’ont aucune compréhension réelle de ce qu’ils génèrent : « ChatGPT n’a aucune notion de ce qui est vrai, faux, de ce qui est logique, pas logique. Par contre, il a une notion de ce qui fait un discours plausible, fluide. »
L’intervention humaine dans le nettoyage des données
L’entretien met en lumière un aspect moins connu du développement de ces IA : le travail humain nécessaire pour « nettoyer » les données d’entraînement. Pour éviter que ChatGPT ne reproduise les biais et contenus problématiques présents sur Internet, une « armada de gens » est employée pour filtrer le corpus de textes utilisé. Cette réalité soulève des questions éthiques, notamment concernant les conditions de travail de ces personnes, souvent payées à très bas salaire dans des pays en développement.
Le professeur cite l’exemple de Microsoft qui avait dû rapidement désactiver son IA Tay en 2017-2018 après qu’elle soit devenue « raciste, misogyne, complotiste » en seulement 24 heures d’exposition aux contenus de Twitter. Cette expérience a démontré la nécessité d’un filtrage préalable des données d’entraînement.
Implications pour l’enseignement
En tant qu’enseignant, le professeur Garbinato voit ces outils comme « absolument fabuleux quand on sait ce qu’on fait avec. » Il souligne toutefois l’importance de pouvoir porter un jugement qualitatif sur ce qu’ils produisent. Cette évolution technologique l’amène à repenser ses méthodes d’évaluation : « Vérifier une connaissance purement par cœur n’a plus aucun intérr. Par contre, comprendre comment un bout de code fonctionne, quels sont ses problèmes ou ses vulnérabilités, ça demande de l’intelligence. »
Il conseille à ses collègues enseignants de se concentrer sur la compréhension profonde plutôt que sur la simple restitution de connaissances, puisque les IA peuvent désormais « régurgiter de façon absolument crédible toutes sortes de discours, sachant que derrière il n’y a aucune compréhension. »
Perspectives d’évolution
Concernant l’avenir de ces technologies, le professeur observe que le cycle d’engouement initial commence à retomber. Il rappelle que la véritable innovation de ChatGPT était moins technologique que sociale, avec sa mise à disposition du grand public.
Pour l’avenir, il évoque les recherches en cours, notamment chez Google, visant à associer aux modèles de langage un « modèle de vérité logique » : « Le jour où on associe ces deux choses, on fera un pas supplémentaire. […] On pourra non seulement faire générer un texte fluide, comme on sait faire aujourd’hui, mais en plus on pourra avoir certaines garanties sur le fait que le discours qui nous est produit est logiquement bien construit. »
En conclusion, le professeur Garbinato insiste sur l’importance de ne pas considérer la technologie comme de la magie. Il encourage les utilisateurs à toujours vérifier les informations générées par ces systèmes, même lorsqu’elles semblent plausibles : « Même si le discours est fluide, même si le discours est très bien construit dans sa logique, allez vérifier les faits, faites du cross-checking, regardez s’il y a plusieurs sources qui disent la même chose, avant d’en conclure que c’est fluide, c’est crédible, donc c’est vrai. »