Dans un contexte académique en pleine évolution, l’arrivée de l’IA générative (grands modèles de langage, diffusion, etc.) appelle une vigilance accrue : comment préserver nos valeurs d’intégrité scientifique tout en profitant du potentiel de ces nouvelles technologies ? Cet article propose un cadre clair, adapté à l’UNIL, articulé autour de quatre principes fondamentaux et de six recommandations clés.
Principes fondamentaux de l’intégrité scientifique
- Fiabilité : garantir la qualité, la traçabilité et la reproductibilité des travaux.
- Honnêteté : conduire, analyser et communiquer les activités de façon transparente et impartiale.
- Respect : tenir compte des personnes, de la société, des écosystèmes et du patrimoine culturel.
- Responsabilité : assumer l’ensemble du processus, de l’idée jusqu’à la diffusion des résultats et à leurs impacts.
Ces principes sont tirés du Code d’intégrité scientifique des Académies suisses des sciences (2021) et constituent le fondement de toute activité de recherche ou d’enseignement à l’université.
Recommandations pour un usage responsable de l’IA générative
- Responsabilité humaine : l’utilisateur·rice reste seul·e responsable du contenu produit ; l’IA n’est ni auteur·e ni coauteur·e.
- Transparence : mentionner l’outil (nom, version, date) et décrire son rôle lorsqu’il influence substantiellement le travail ; partager prompts et résultats dans la mesure du possible.
- Protection des données & propriété intellectuelle : ne jamais charger de données sensibles ou protégées sans garantie explicite ; respecter le RGPD et les droits d’auteur·e.
- Conformité juridique & éthique : bannir plagiat, fabrication, falsification ou divulgation non autorisée.
- Formation continue & sobriété numérique : se tenir informé·e des bonnes pratiques, choisir l’outil le plus adapté et limiter l’empreinte environnementale (carbone, biodiversité, eau, etc.).
- Décisions sensibles non déléguées : ne pas confier à l’IA la responsabilité finale des évaluations (examens, recrutements, peer-review, etc.).
Ces recommandations s’appuient sur les Living guidelines on the Responsible Use of Generative AI in Research du Forum ERA / Commission européenne (2025) et les bonnes pratiques partagées dans notre FAQ institutionnelle.
Pour aller plus loin
- Code d’intégrité scientifique des Académies suisses des sciences (2021) : https://api.swiss-academies.ch/site/assets/files/25606/kodex_layout_fr_web.pdf
- Living guidelines on the Responsible Use of Generative AI in Research – Forum ERA / Commission européenne (2025) : https://research-and-innovation.ec.europa.eu/document/download/2b6cf7e5-36ac-41cb-aab5-0d32050143dc_en?filename=ec_rtd_ai-guidelines.pdf
- FAQ : Utiliser l’IA à l’UNIL : https://www.unil.ch/unil/fr/home/menuinst/universite/intelligence-artificielle/faq.html
