Depuis leur mise à disposition récente, l’intérêt pour les outils reposant sur l’intelligence artificielle (IA) ne cesse de grandir au sein de la communauté académique. En attendant des recommandations officielles, une certaine prudence s’impose concernant le traitement des données injectées dans ces outils.
L’intérêt pour les outils générateurs d’images (Stable Diffusion, Midjourney, DALL-E) ou de texte (ChatGPT) reposant sur l’intelligence artificielle (IA) ne cesse de grandir au sein de la communauté académique. Très performants, ces agents permettent d’automatiser certaines parties du travail de chercheur. Plus particulièrement, ChatGPT et ses applications peuvent assister à la revue de littérature (en facilitant la recherche de publications pertinentes, de réseaux de chercheur·e·s sur un thème donné, ou en générant des résumés d’articles scientifiques), la rédaction de publications (en recherchant des citations pertinentes) ou encore la transcription d’entretiens audio. Par ailleurs, l’IA constitue un champ de recherche à part entière, y compris au sein des sciences humaines qui étudient sa réception et ses éventuelles applications au sein de nos sociétés modernes.
Un groupe de travail est en train d’être constitué à l’UNIL afin d’évaluer les enjeux posés par ces agents générateurs d’images et de textes. En attendant ses conclusions, il n’existe aucune prescription officielle limitant ou empêchant les chercheur·e·s de l’université d’utiliser l’IA dans leurs projets. Cependant, outre les risques que l’IA pourrait poser vis-à-vis de l’intégrité scientifique, une certaine prudence s’impose concernant le traitement des données personnelles injectées dans ces outils. Il n’est en effet pas toujours simple d’identifier si ChatGPT ou les logiciels basés sur cette technologie copient et/ou transfèrent une partie ou la totalité des données traitées. Selon le principe du machine learning, ces outils fonctionnent et s’améliorent sur la base des données qu’ils traitent. Il est donc probable qu’une partie des données soit utilisée par les développeurs, en contrepartie de la mise à disposition gratuite de cette technologie. S’il s’agit de données personnelles de participant·e·s, par exemple dans le cadre d’enregistrements audio d’entretiens, le transfert ou le stockage sur un serveur américain pourraient constituer une infraction aux réglementations européennes et suisses sur la protection des données personnelles. Dès lors, si vous souhaitez utiliser ces outils, nous vous recommandons vivement de consulter les personnes ressources au sein de la Faculté : Ellina Mourtazina, data steward, et Glen Lomax, ingénieur de recherche, pourront vous guider concernant l’usage de l’IA dans la mise en œuvre de vos projets de recherche.
Nathanaëlle Minard, Adjointe à la recherche