J’ai récemment été amusé par une information en apparence très légère : un doctorant français a créé une page web sur laquelle il est possible d’entrer un mot et de savoir en retour quelle est son appartenance politique. C’est ludique, d’autant qu’on peut y poser une question absolument vitale pour un·e Suisse·sse : est-ce que la fondue est de gauche ou de droite ?
Pour y répondre, le doctorant explique qu’il utilise un algorithme de machine learning. Son site rencontre un énorme succès, même s’il en reconnaît volontiers l’absurdité et les limites lorsque le journaliste lui fait remarquer que la fondue est de gauche et la raclette de droite… Tout cela fait sourire, bien entendu, mais c’est loin d’être anodin, car les algorithmes d’intelligence artificielle (IA) sont aujourd’hui absolument partout. Ils influencent nos recherches sur Internet, nous aident à choisir nos déplacements ou nos centres d’intérêts, et il ne se passe pas une journée sans qu’ils soient évoqués dans les médias. Henry Kissinger, Eric Schmidt et Daniel Huttenlocher, auteurs de The Age of IA, parlent d’ailleurs de l’intelligence artificielle comme d’une des plus grandes transitions pour l’humanité depuis les Lumières ou l’introduction de l’imprimerie. Dans leur dernier ouvrage, ils nous démontrent comment l’IA bouleverse la façon dont nous abordons l’économie, la sécurité, les connaissances, la médecine, la (géo-) politique, le droit et même nos rapports à l’autre. Ce faisant, ils nous recommandent vivement d’en évaluer les limites.
Ce conseil est aussi valable pour l’UNIL, car l’IA révolutionne l’éducation – et à peu près tous les domaines scientifiques. Dans notre plan d’intentions, nous déclarons vouloir appréhender les opportunités et les risques du numérique, ainsi que poursuivre son développement de manière réflexive et critique. Mais comment s’y prendre concrètement ? Parmi la myriade d’expert·e·s du domaine sur le campus, je souhaite donner ici la parole à cinq professeur·e·s de l’UNIL qui ont recours à l’IA comme méthode ou comme objet de recherche, et qui peuvent nous aider à nous positionner face aux atouts et écueils de cet outil désormais incontournable.
Boris Beaude, Professeur associé en cultures, sociétés et humanités numériques en Faculté des sciences sociales et politiques, s’intéresse aux enjeux épistémologiques, méthodologiques, sociaux et politiques du numérique, à la traçabilité numérique des pratiques sociales et au potentiel d’exploitation de données massives en sciences sociales. À ses yeux, la mobilisation de méthodes numériques est un défi crucial pour les sciences humaines et sociales, qui nécessite des ressources humaines adaptées. Cependant, la discipline semble réticente lorsqu’il s’agit de déléguer la résolution de problèmes à un algorithme. En particulier, le deep learning a mauvaise presse : on craint qu’il ne remplace bientôt l’humain, entraînant dans son sillage une perte d’emplois significative, et son opacité relative est plutôt malvenue dans le monde académique. Or, l’IA s’avère parfois essentielle pour analyser d’impressionnantes masses de données, tel que le contenu des millions d’articles de Wikipédia dans l’étude que réalise Boris Beaude sur les attentions collectives. Pour lui, les SHS doivent accepter de s’emparer de ces technologies, à trois conditions toutefois : maintenir une réflexivité permanente sur les méthodes, garder en tête les biais inhérents à ce type d’approches, et repenser en parallèle la société afin de garantir une redistribution la plus équitable possible de la productivité et de l’employabilité.
Équité : voilà un concept difficile à concilier avec les effets de l’IA sur la concurrence entre entreprises. Professeure assistante en PTC spécialisée dans la finance (HEC), Roxana Mihet analyse l’expansion des technologies du big data et ses impacts sur l’économie. L’analyse de milliers de compagnies actives dans le domaine de l’IA conversationnelle suggère que le recours à l’intelligence artificielle entraîne rarement une répartition des richesses. La compétitivité d’une boîte dépend en effet de deux facteurs : sa capacité à amasser des données et son habileté à les exploiter. Les grandes entreprises comme Amazon ou Galaxus ont les ressources adéquates pour transformer le big data en messages utiles qui leur permettent d’anticiper les besoins du marché et de proposer des offres « sur mesure » aux client·e·s. Face à elles, les PME n’ont pas les moyens d’être concurrentielles. La nouvelle loi sur la protection des données, qui limitera leur durée de conservation et leur vente à un tiers, ne changera pas la donne. Elle péjorera surtout les jeunes structures, qui n’auront pas eu assez de temps pour recueillir suffisamment d’informations exploitables. Certes, il est indispensable d’investir sans attendre dans ces technologies d’avenir, même dans des domaines qui ne s’y intéressent pas encore réellement (en agriculture par exemple, où les algorithmes permettent de mieux prédire le timing idéal pour les plantations et les récoltes, ce qui entraîne un rendement potentiellement meilleur). Mais il ne faut pas se leurrer : 15% de profit supplémentaire chez un paysan ou chez les GAFA n’a rien d’équivalent… En économie, le degré de sophistication des technologies de type IA génère indiscutablement des bénéfices, mais ceux-ci sont hétérogènes et profitent aux plus riches.
Un tel constat trouve un écho inattendu en climatologie. Tom Beucler, Professeur assistant en PTC en sciences des données géoenvironnementales au sein la Faculté des géosciences et de l’environnement, se penche sur la manière dont le deep learning est susceptible d’aider les sciences atmosphériques. Son travail s’articule autour de deux axes principaux : l’élaboration de modèles de prévision météorologique et climatique, et l’utilisation des lois physiques pour rendre les algorithmes existants plus cohérents. Étonnamment, l’éthique est une préoccupation centrale des scientifiques de sa discipline (voir les articles en lien). En effet, pour apprendre, le machine learning se « nourrit » de quantité de données. Or, celles-ci sont générées par des capteurs qui, sans surprise, sont davantage présents dans les pays aisés. En conséquence, les prédictions des cyclones tropicaux sont beaucoup plus fiables pour les Etats-Unis que pour l’Océan Indien Nord. Dans le même ordre d’idées, les bilans de risque, lorsqu’ils sont quantifiés en monnaie, sont clairement sous-estimés dans les régions défavorisées : la destruction d’une villa avec piscine en Floride peut en effet coûter plus cher qu’une personne tuée par un cyclone au Bengladesh… On le voit, les biais sont présents là où on ne les attend pas forcément, et Tom Beucler considère qu’il est fondamental pour un·e scientifique de se rappeler que son travail s’inscrit dans une société imparfaite qui sera directement impactée par ses résultats. Les chercheuses et chercheurs doivent donc adopter un comportement clairvoyant et responsable.
Même conclusion du côté de la santé. Raphaël Gottardo, Professeur ordinaire en Faculté de biologie et de médecine, spécialiste en immunologie numérique et responsable du Centre de la science des données biomédicales au CHUV, confirme que les biais n’épargnent pas le big data dans le domaine médical. Les algorithmes prédictifs y présentent souvent des préjugés raciaux importants en raison de données d’apprentissage lacunaires. Par exemple, les populations afro-descendantes aux États-Unis sont moins étudiées, ce qui peut défavoriser leur prise en charge. La biologie humaine se retrouve en outre confrontée à des problèmes spécifiques face à l’explosion générale des données et aux besoins accrus en efforts computationnels et multidimensionnels : les algorithmes du genre sont, d’une part, difficiles à entraîner et, d’autre part, complexes à interpréter. Même si un modèle parvient à prédire si un·e patient·e répondra positivement ou non à un traitement, il sera difficile d’expliquer son raisonnement et d’en extraire les variables pertinentes. Or, si l’IA devient de plus en plus accessible au tout venant (par exemple en proposant aux gens de calculer en ligne leurs risques de développer un cancer), il est de moins en moins facile d’accéder à ce qui se cache derrière des résultats qui ont l’air vrais – mais qui ne le sont pas forcément. L’échec retentissant de Galactica, le logiciel d’IA lancé par Meta et entraîné sur 48 millions de données pour générer des articles scientifiques à l’aspect hyperbolique mais au contenu discutable, en est un bon exemple. Nous n’avons pas le choix : la digitalisation s’accélère, il faut investir dans le numérique, mais sans oublier de former des spécialistes pour lire intelligemment les données produites – et pour les protéger.
L’invasion de la sphère privée, c’est un des multiples sujets de recherche de Rebekah Overdorf, Professeure assistante en PTC en Faculté de droit, des sciences criminelles et d’administration publique. Son travail explore notamment la manipulation d’opinions sur les réseaux sociaux, la désanonymisation des contributions en ligne par le biais d’analyses des styles d’écriture, ainsi que les effets du machine learning sur la sécurité et la confidentialité des données. Elle enseigne également le déploiement éthique de l’IA dans la criminalistique numérique. De son point de vue, le recours à l’intelligence artificielle dans des domaines comme le profilage ou la reconnaissance faciale est très dangereux, car les études prouvent que les logiciels y relatifs discriminent notamment les femmes racisées, ce qui est susceptible d’avoir des conséquences judiciaires désastreuses. Les algorithmes utilisés pour accorder ou non des prêts bancaires peuvent, eux aussi, être fortement biaisés. Peut-on contre-attaquer face à cette ingérence de l’IA dans nos vies, et, le cas échéant, de quelle manière ? C’est ce à quoi s’attellent les POTs (protective optimization technologies), qui se sont par exemple penchées sur Waze, le fameux assistant de navigation en temps réel. Les calculs de cette application ont submergé de trafic certaines localités dont les infrastructures n’étaient pas faites pour absorber autant de véhicules. Les POTs leur ont permis de retrouver une vie normale en évaluant le nombre de limitations de vitesse, de ralentisseurs et de carrefours à implémenter pour sortir des itinéraires alternatifs privilégiés… Pour Rebekah Overdorf, la pensée globale pratiquée par l’IA crée des problèmes locaux qui nécessitent de s’arrêter un instant pour rééquilibrer les pouvoirs.
Vous l’aurez compris en lisant ces lignes, la conclusion est aussi évidente qu’unanime : la révolution numérique n’attend pas, et il est primordial que nos sept facultés continuent de se saisir avec brio de la question. Mais cette transformation doit se faire en conscience, dans le respect des valeurs d’égalité, de diversité et d’inclusion portées par l’UNIL, et en limitant son impact sur l’environnement. Ce n’est qu’en alliant excellence technologique et respect de l’autre que nous pourrons faire réellement progresser la science – et la société.