ai campus n

Intégrité scientifique et usage responsable de l’IA générative dans le cadre académique à l’UNIL

Dans un contexte académique en pleine évolution, l’arrivée de l’IA générative (grands modèles de langage, diffusion, etc.) appelle une vigilance accrue : comment préserver nos valeurs d’intégrité scientifique tout en profitant du potentiel de ces nouvelles technologies ? Cet article propose un cadre clair, adapté à l’UNIL, articulé autour de quatre principes fondamentaux et de six recommandations clés.

Principes fondamentaux de l’intégrité scientifique

  • Fiabilité : garantir la qualité, la traçabilité et la reproductibilité des travaux.
  • Honnêteté : conduire, analyser et communiquer les activités de façon transparente et impartiale.
  • Respect : tenir compte des personnes, de la société, des écosystèmes et du patrimoine culturel.
  • Responsabilité : assumer l’ensemble du processus, de l’idée jusqu’à la diffusion des résultats et à leurs impacts.

Ces principes sont tirés du Code d’intégrité scientifique des Académies suisses des sciences (2021) et constituent le fondement de toute activité de recherche ou d’enseignement à l’université.

Recommandations pour un usage responsable de l’IA générative

  • Responsabilité humaine : l’utilisateur·rice reste seul·e responsable du contenu produit ; l’IA n’est ni auteur·e ni coauteur·e.
  • Transparence : mentionner l’outil (nom, version, date) et décrire son rôle lorsqu’il influence substantiellement le travail ; partager prompts et résultats dans la mesure du possible.
  • Protection des données & propriété intellectuelle : ne jamais charger de données sensibles ou protégées sans garantie explicite ; respecter le RGPD et les droits d’auteur·e.
  • Conformité juridique & éthique : bannir plagiat, fabrication, falsification ou divulgation non autorisée.
  • Formation continue & sobriété numérique : se tenir informé·e des bonnes pratiques, choisir l’outil le plus adapté et limiter l’empreinte environnementale (carbone, biodiversité, eau, etc.).
  • Décisions sensibles non déléguées : ne pas confier à l’IA la responsabilité finale des évaluations (examens, recrutements, peer-review, etc.).

Ces recommandations s’appuient sur les Living guidelines on the Responsible Use of Generative AI in Research du Forum ERA / Commission européenne (2025) et les bonnes pratiques partagées dans notre FAQ institutionnelle.

Pour aller plus loin