Petite histoire de l’IA : étapes choisies

Gérald Hess, Institut de géographie et durabilité

Gérald Hess est philosophe, spécialiste en éthique et philosophie de l’environnement. Il a également enseigné l’épistémologie à la faculté des lettres de l’UNIL.

Ses projets actuels portent sur la relation de l’humain avec la nature. Il a fait paraître à l’automne 2023 un livre intitulé Conscience cosmique : pour une écologie à la première personne dans lequel il cherche à expliciter un rapport à la nature (ou à l’environnement naturel) qui précède celui que la pensée scientifique objective inévitablement par ces concepts, ces lois et ses modèles, et qui fonde ou devrait fonder notre rapport à la nature. Il apporte ici son regard d’éthicien et épistémologue sur l’essor de l’intelligence artificielle.

On peut remonter jusqu’à l’Antiquité pour retrouver les premières tentatives de compréhension et d’ « automatisation » du raisonnement. En développant la science de la logique, qui visait à caractériser des mécaniques de raisonnement correctes, Aristote utilisait par exemple des syllogismes pour enchaîner deux propositions à une troisième (qui découlait logiquement des deux autres). 

Au XIIème siècle, Leibnitz a formulé mathématiquement ces lois logiques, afin de pouvoir déterminer la validité d’un raisonnement par un calcul. Par la suite de nombreux scientifiques ont tenté de mécaniser ces calculs logiques, et les faire effectuer par des machines. L’un des plus connus est Alan Turing qui a construit sa fameuse machine dans les années 1950. 

Le terme intelligence artificielle est officiellement apparu en 1956, dans un projet soumis par quatre chercheurs américains, désireux d’étudier l’intelligence à l’aide des ordinateurs. Leurs hypothèses se fondaient sur le fait que certains mécanismes cognitifs de l’intelligence humaine pourraient être reproduits à partir du modèle de l’ordinateur. Après des débuts chaotiques, c’est vers 1980 que les progrès des techniques de formalisations mathématiques ont permis de concevoir les algorithmes d’apprentissage (basés sur des réseaux similaires à ceux des neurones). Depuis les années 2000, l’augmentation de la puissance des ordinateurs et l’accumulation de données numériques accessibles ont permis l’explosion du développement de l’IA dans de multiples domaines. 

Des enjeux pas forcément nouveaux, mais plus visibles 

Pour Gérald Hess, l’intelligence artificielle ne soulève pas de nouvelles questions fondamentales du point de vue épistémologique. Les bouleversements des sciences du numérique sont apparus principalement avec l’avènement d’internet puis des réseaux sociaux. L’accès instantané à toutes sortes d’informations, le contact et les échanges permanents au sein de communautés plus ou moins éclectiques ont significativement modifié la relation des gens à la connaissance, ainsi que leur représentation du monde. Les moteurs de recherche disposent depuis longtemps de la capacité à utiliser les données numériques pour cibler les contenus pertinents, traduire des textes ou identifier des lieux à partir d’images. Dans ces contextes, l’intelligence artificielle n’est pas fondamentalement différente des algorithmes utilisés a à ce jour traiter l’information de façon intentionnelle et elle n’engendre pas de nouveaux comportements, mais agit comme un amplificateur en permettant une exploitation massive de ces données. 

Dans le domaine des sciences, les chercheuses et chercheurs auront toujours le dernier mot

Dans le cadre de la recherche, l’intelligence artificielle est un outil puissant par exemple pour les modélisations numériques de phénomènes complexes. Elle améliore la précision des modèles et diminue les temps de calcul. Cependant, elle ne modifie pas fondamentalement la démarche scientifique. « Ce sont toujours les chercheuses et chercheurs qui décident quelles données doivent être analysées, avec quelle méthode, et qui évaluent la pertinence des résultats obtenus ». L’intelligence artificielle ne fait qu’agir sur les données qu’on lui fournit, et ne peut pas tirer seule les conclusions des analyses effectuées. 

Dans ce sens on peut voir l’IA comme une simple évolution de l’intégration d’outils numériques dans les méthodes scientifiques. Pour certaines applications comme les modélisations, elle peut représenter une révolution, tant l’apport de l’IA repousse les limites de ce qu’il était impossible de réaliser auparavant).

 Des applications parfois loin de l’éthique 

« L’exploitation des données n’est éthique que si elle se fonde sur le bien commun ». Gérald Hess voit un enjeu éthique important dans l’augmentation de l’exploitation des données numériques, notamment via les réseaux sociaux et les moteurs de recherche. On ne sait pas quelles données sont utilisées, par qui et dans quel but. Les règlementations et législations sont en retard par rapport à la technologie et aux business développés sur ses avancées. L’intelligence artificielle qui démultiplie le potentiel d’exploitation des données numériques accélère ce décalage. Les nombreuses applications intégrant l’IA (ou non) montrent un potentiel croissant pour influencer, à notre insu, nos choix et nos opinions, voire notre perception du monde. Il existe un risque de glisser petit à petit dans un monde dans lequel la frontière entre la réalité et le monde virtuel numérique sera de plus en plus floue.

Ce risque ne date pas du développement de l’intelligence artificielle, mais il gagne en importance avec elle. Déjà avec les réseaux sociaux, le risque de se mouvoir dans une bulle informationnelle, sans vraiment sans rendre compte, suivant la participation à certains groupes, a pour conséquence de construire une réalité virtuelle qui ne correspond pas à la réalité. L’IA amplifie ce risque, car elle peut littéralement fabriquer une nouvelle réalité à partir des données existantes, plus vraie que nature, à un coût financier très bas et de façon très facile. Pensons à des photos-montages qui donnent l’illusion d’une situation réelle, mais qui, en fait, n’a jamais existé ; ou à des textes poétiques ou littéraires qui ressemblent à ceux d’auteurs réels, sans que ces derniers les aient vraiment produits. Bien sûr, tout cela a existé bien avant le développement de l’IA, mais ce qui est inquiétant c’est la simplicité et la précision avec laquelle cette illusion peut être déployée.

Chat GPT ou chat de Schrödinger : un outil génial, un fléau ou les deux à la fois ?

Gérald Hess se pose des questions concernant la plateforme CHatGPT.  Cet outil accessible, très puissant, qui peut par exemple rédiger des textes pointus sur n’importe quel sujet suffisamment documenté sur internet modifie certaines règles. En tant qu’enseignant, il se demande comment intégrer cet outil dans ses cours ? Dans quelle mesure lui sera-t-il possible d’évaluer si les textes rendus ont été rédigés par les étudiants ou ChatGPT ? Comment vérifier ce que les étudiant.e.s ont compris ?  

Par ailleurs Gérald Hess constate, qu’avec l’utilisation croissante de Chat GPT dans la rédaction d’articles scientifiques, une certaine standardisation du langage apparaît. Les styles propres ont tendance à se diluer au profit de termes et d’expressions récurrentes voire banales. Il prône une certaine vigilance pour que cette standardisation du langage ne s’étende pas à la pensée que celui-ci traduit. 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *