ai campus n

Un cadre australien pour l’IA dans l’enseignement supérieur : entre opportunités et vigilance éthique

L’essentiel à retenir

L’Australie vient de publier un cadre de référence complet pour guider l’intégration de l’intelligence artificielle dans l’enseignement supérieur. Ce document, élaboré par une équipe de six chercheurs·ses issu·es des principales universités australiennes, se distingue par son approche critique et centrée sur l’équité. Contrairement à de nombreux guides institutionnels qui embrassent l’IA sans réserve, le Australian Framework for Artificial Intelligence in Higher Education (Lodge et al., 2025) pose d’emblée une question dérangeante : ces technologies, qui n’ont pas été conçues pour l’éducation, ont-elles réellement leur place dans nos universités ?

Cette interrogation fondamentale traverse l’ensemble du document, qui propose sept principes directeurs et des orientations concrètes pour une implémentation responsable de l’IA. L’équité constitue le fil conducteur du cadre, avec une attention particulière portée aux groupes historiquement marginalisés dans l’enseignement supérieur et aux savoirs autochtones. Pour les institutions francophones, ce cadre offre une ressource précieuse pour penser l’intégration de l’IA au-delà des discours techno-optimistes dominants.

Un contexte de transformation rapide et de questionnements profonds

Depuis 2022, l’intelligence artificielle générative questionne les pratiques académiques dans le monde entier. Les grands modèles de langage comme ChatGPT, Claude ou Gemini sont devenus des outils quotidiens pour de nombreux·ses étudiant·es. Cette adoption importante a soulevé des préoccupations concernant l’intégrité académique, l’évaluation et la pédagogie, mais elle a également révélé des enjeux plus profonds touchant à la nature même de l’enseignement supérieur.

Le cadre australien s’inscrit dans une démarche institutionnelle plus large. Il fait suite au rapport Australian Universities Accord (2024) et au rapport parlementaire Study Buddy or Influencer (2024), qui ont tous deux souligné la nécessité d’une approche coordonnée au niveau sectoriel. Il s’appuie également sur les travaux antérieurs de l’agence de qualité TEQSA concernant la réforme de l’évaluation à l’ère de l’IA.

Ce qui frappe d’emblée dans ce document, c’est son honnêteté intellectuelle. Les auteur·rices reconnaissent explicitement que « ces technologies n’ont pas été développées à des fins éducatives et, à bien des égards, entrent en conflit avec les valeurs et l’objectif de l’enseignement supérieur. » Cette lucidité contraste avec le techno-optimisme ambiant et invite les institutions à exercer leur esprit critique avant toute adoption précipitée.

Sept principes pour une IA responsable

Le cadre s’articule autour de sept principes fondamentaux, chacun étant soigneusement aligné avec les standards nationaux australiens d’enseignement supérieur et les Objectifs de Développement Durable des Nations Unies.

Principe 1 : Une éducation centrée sur l’humain
Le premier principe affirme que l’enseignement supérieur doit rester fondamentalement anthropocentrique. La valeur principale de l’université réside dans les connexions humaines, le dialogue critique et le développement du jugement professionnel expert. L’IA doit servir à améliorer l’apprentissage, jamais à remplacer l’enseignement et le mentorat humains. Cette position s’appuie sur les travaux de Bearman et al. (2024) qui démontrent que le jugement évaluatif humain demeure essentiel même avec des outils d’IA sophistiqués.

Principe 2 : Une mise en œuvre inclusive
L’équité traverse tout le document comme un impératif catégorique. Les institutions doivent s’assurer que l’IA bénéficie à tous·tes les étudiant·es, en particulier celles et ceux issus de groupes historiquement marginalisés : personnes issues de milieux socio-économiquement défavorisés, peuples autochtones, femmes dans les domaines d’études non traditionnels, personnes non anglophones, personnes handicapées, et personnes des zones rurales et isolées.

Le cadre recommande des évaluations d’impact intersectionnelles régulières et insiste sur la nécessité de fournir des alternatives significatives pour les étudiant·es qui ne peuvent pas, ne souhaitent pas, ou s’opposent consciencieusement à l’utilisation de certains outils d’IA. Cette approche reconnaît que l’autonomie étudiante doit prévaloir sur l’impératif technologique.

Principe 3 : Décision éthique par l’équité, la responsabilité, la transparence et la contestabilité
Le troisième principe s’appuie sur le cadre FATE (Fairness, Accountability, Transparency, Ethics) en y ajoutant une dimension cruciale : la contestabilité. Les systèmes d’IA ne sont ni neutres ni objectifs – ils sont chargés de valeurs. Les institutions doivent donc établir des mécanismes clairs permettant aux étudiant·es et au personnel de contester les décisions influencées par l’IA, avec une révision humaine rapide et significative.

Principe 4 : Savoirs autochtones
Ce principe, particulièrement novateur, reconnaît la souveraineté des données autochtones et affirme le droit des peuples autochtones à maintenir le contrôle de leur patrimoine culturel et de leurs savoirs, y compris leur représentation dans les systèmes d’IA. Le cadre s’appuie sur les principes CARE (Collective Benefit, Authority to Control, Responsibility, Ethics) et les travaux de Kukutai et Taylor (2016).

Le document souligne une tension inhérente : les systèmes d’IA, entraînés principalement sur des traditions de savoir occidentales, présentent des défis épistémologiques fondamentaux. Les institutions doivent adopter un modèle d’apprentissage bidirectionnel qui positionne les systèmes de savoirs autochtones et occidentaux comme complémentaires plutôt qu’hiérarchiques.

Principe 5 : Développement et déploiement éthiques
L’approvisionnement et le développement de technologies d’IA doivent respecter des standards éthiques rigoureux. Cela inclut l’établissement de comités d’éthique avec des membres diversifié·es (incluant des représentant·es étudiant·es), la conduite d’évaluations d’impact éthique avant toute implémentation significative, et la surveillance de la durabilité environnementale et des impacts climatiques de l’utilisation de l’IA.

Principe 6 : Développer des compétences adaptatives pour l’intégration de l’IA
Plutôt que de se concentrer sur des compétences techniques spécifiques comme le « prompt engineering » (qui aura une utilité future limitée), le cadre préconise le développement de compétences adaptatives fondamentales : définition d’objectifs, suivi des progrès, adaptation des stratégies, pratiques réflexives. L’accent est mis sur la capacité à évaluer quand et comment intégrer l’IA dans les pratiques disciplinaires, plutôt que sur la maîtrise technique de l’IA elle-même.

Cette approche basée sur les forces reconnaît que l’apprentissage efficace dans des environnements riches en technologies dépend davantage des capacités fondamentales d’apprentissage autodirigé et de pensée critique que de connaissances techniques spécifiques.

Principe 7 : Innovation fondée sur les preuves
Le dernier principe appelle à baser les décisions d’implémentation de l’IA sur des preuves de recherche rigoureuses, tout en encourageant l’innovation responsable. Les institutions doivent mener et partager des évaluations de leurs implémentations d’IA, contribuant ainsi à la base de connaissances du secteur.

Orientations pratiques pour la mise en œuvre

Au-delà des principes, le cadre propose des orientations concrètes pour l’implémentation. Ces recommandations couvrent huit domaines clés :

Structures de gouvernance : Le document préconise l’établissement de structures de gouvernance de l’IA incluant des représentant·es du personnel académique et professionnel, des chercheurs·ses actif·ves en technologie éducative, des représentant·es étudiant·es de divers horizons, des responsables autochtones, des spécialistes de l’accessibilité, et des expert·es en éthique.

Développement de politiques : Les politiques institutionnelles doivent aborder l’intégrité académique, les principes de conception d’évaluation, les directives d’utilisation acceptable, les arrangements de gouvernance liés à la confidentialité des données et à la prise de décision automatisée, la transparence concernant l’utilisation de l’IA dans les tâches administratives, les standards d’approvisionnement, et les mécanismes de révision.

Approvisionnement et développement : Les processus d’approvisionnement doivent établir des politiques claires pour évaluer les outils d’IA tiers, mandater l’évaluation des implications en matière de confidentialité des données, de sécurité et d’éthique, intégrer des principes d’ »équité par conception » dans tout développement interne d’IA, et s’assurer que tout outil d’IA améliore démonstrablementles processus et résultats d’apprentissage (et pas seulement l’ »engagement » ou les préférences auto-rapportées).

Apprentissage professionnel : Les programmes de formation doivent développer la capacité du personnel à comprendre les enjeux éthiques, moraux et environnementaux liés à l’IA, offrir des dimensions pédagogiques et techniques, aborder les considérations disciplinaires spécifiques, se concentrer sur l’équité et l’inclusion, inclure des perspectives autochtones sur la technologie, et offrir un soutien continu plutôt qu’une formation ponctuelle.

Implications pour les institutions francophones

Ce cadre australien offre plusieurs enseignements précieux pour les institutions d’enseignement supérieur francophones qui naviguent elles aussi dans les eaux troubles de l’intégration de l’IA.

Repenser l’équité à l’ère numérique : Le cadre nous rappelle que l’équité ne se limite pas à l’accès aux technologies. Elle englobe la reconnaissance des biais incorporés dans les systèmes d’IA, la possibilité pour les étudiant·es de refuser certains outils, et la nécessité d’évaluations d’impact intersectionnelles régulières. Dans nos contextes, cela pourrait signifier une attention particulière aux enjeux linguistiques – les LLM étant généralement moins performants en français qu’en anglais – et aux dimensions culturelles de l’apprentissage.

Valoriser l’autonomie étudiante : Le principe selon lequel les étudiant·es doivent pouvoir faire des choix éclairés sur l’utilisation de l’IA dans leur apprentissage (ou non) contraste avec certaines approches institutionnelles plus prescriptives. Il suggère que notre rôle n’est pas d’imposer ou d’interdire, mais d’éduquer et d’accompagner.

Privilégier les capacités durables : L’accent mis sur les compétences adaptatives plutôt que sur les compétences techniques spécifiques résonne particulièrement dans un contexte de transformation technologique rapide. Former nos étudiant·es au « prompt engineering » aura probablement peu de valeur dans cinq ans ; développer leur capacité de jugement critique, leur réflexivité et leur agilité intellectuelle sera toujours pertinent.

Intégrer les savoirs et perspectives locales : Bien que le principe sur les savoirs autochtones soit spécifique au contexte australien, il soulève une question plus large : comment nos institutions peuvent-elles s’assurer que l’IA ne renforce pas une vision monoculturelle (généralement anglo-américaine) du savoir et de l’apprentissage ?

Adopter une posture critique : La force du cadre australien réside dans sa lucidité. Il ne part pas du principe que l’IA est nécessairement bénéfique pour l’éducation, mais interroge continuellement son appropriation et ses impacts. Cette vigilance critique devrait inspirer nos propres démarches institutionnelles.

Conclusion : Vers une intelligence artificielle au service de l’humain

Le Australian Framework for Artificial Intelligence in Higher Education ne propose pas de recettes miracles. Il n’affirme pas que l’IA révolutionnera positivement l’enseignement supérieur, ni qu’elle doit en être bannie. Au contraire, il adopte une position de prudence réflexive, reconnaissant à la fois les possibilités et les périls de ces technologies.

Son message central est clair : si nous choisissons d’intégrer l’IA dans nos institutions, nous devons le faire de manière réfléchie, équitable et éthique, en plaçant toujours l’humain – étudiant·es, enseignant·es, personnel – au centre de nos préoccupations. L’IA doit servir nos objectifs éducatifs et nos valeurs institutionnelles, et non l’inverse.

Pour les institutions francophones, ce cadre offre un modèle de réflexion stratégique qui va bien au-delà des préoccupations immédiates d’intégrité académique pour embrasser les dimensions plus profondes de justice sociale, de souveraineté épistémologique et de durabilité institutionnelle. Il nous rappelle que les choix technologiques sont toujours des choix de société, et que nous avons la responsabilité collective de façonner activement l’avenir de l’enseignement supérieur à l’ère de l’IA.