La toute première loi mondiale sur l’intelligence artificielle (IA) devrait être adoptée par le Parlement de l’Union européenne cette année. L’AI Act1 est la première législation gouvernementale complète visant à superviser l’utilisation de la technologie. Elle adopte une approche fondée sur les risques afin de prévenir les conséquences néfastes et pourrait avoir un impact au-delà de l’Europe. De nouvelles recherches suggèrent une approche différente.
La loi européenne sur l’IA a attiré l’attention du monde entier parce qu’elle établira des limites pour les outils d’intelligence artificielle en rapide évolution, devenus omniprésents. Les règles régiront également les modèles de base ou l’IA générative telle que ChatGPT créée par OpenAI et Gemini de Google. Ces systèmes d’IA sont entraînés à partir de vastes ensembles de données, avec la capacité d’apprendre à partir de nouvelles données pour effectuer diverses tâches.
L’approche réglementaire de l’UE, qui entrera en vigueur en avril, se concentre sur l’évaluation des risques associés à chaque cas d’utilisation de l’IA et à ses résultats. Mais il peut être difficile d’en juger, en particulier pour les cas qui restent à découvrir. La loi européenne sur l’IA obligera également les organisations à utiliser des données d’entrée de haute qualité, mais la manière de mettre cela en œuvre n’est pas bien comprise. Une méthode différente est nécessaire pour s’assurer que les organisations se conforment à la loi.
« Nous n’avons pas beaucoup vu de texte ni de contenus sur la responsabilité dans cette loi, ce qui est problématique. L’IA est complexe, elle évolue en permanence. La réglementation devrait s’attacher à garantir la qualité des intrants de l’IA, sans essayer d’anticiper tous les résultats possibles. Cela peut être plus facilement compris et contrôlé avant que l’IA ne soit déployée », explique Christian Peukert, professeur associé en digitalisation, innovation et propriété intellectuelle à HEC Lausanne.
La recherche de Peukert et de ses collègues2 propose que les organisations examinent de plus près les données d’entrée des modèles d’IA afin de réduire les risques de conformité. En particulier, il est important de déterminer qui est responsable des sources de données de mauvaise qualité afin d’attribuer les responsabilités.Les raisons pour lesquelles certains ensembles de données sont incomplets échappent au contrôle du fournisseur ou des utilisateurs de l’IA. Ces raisons exogènes de mauvaise qualité des données peuvent exister, par exemple, en raison des réglementations en matière de protection de la vie privée. Dans d’autres cas, les données sont de mauvaise qualité parce que quelqu’un a modifié les informations en sa faveur. Cela peut entraîner des problèmes de biais de l’IA. Une répartition judicieuse de la responsabilité entre le développeur ou le déployeur de l’IA peut contribuer à inciter toutes les parties à travailler dur pour obtenir des données de haute qualité. Il convient également de déterminer si l’IA est installée une seule fois et si son mode de fonctionnement est fixe, comme dans le cas d’un système d’IA formé à la reconnaissance des plaques d’immatriculation des véhicules, ou si son déploiement et son apprentissage sont continus. C’est le cas, par exemple, d’un robot de conversation formé à partir d’un modèle linguistique étendu. Sur cette base, l’équipe du Prof. Peukert a créé un cadre de responsabilité.
Cadre de responsabilité axé sur les intrants de l’IA et les modèles de déploiement
Déploiement ponctuel | Déploiement continu | |
Problèmes de données exogènes | Responsabilité du développeur | Responsabilité du développeur |
Problèmes liés aux données endogènes | Responsabilité du déployeur | Responsabilité conjointe du développeur et du déployeur |
L’attribution de la responsabilité aux développeurs et aux déployeurs dans différentes situations en fonction des données fournies permet aux organisations de codifier les responsabilités. Ce cadre précise également quand les développeurs d’IA doivent collaborer avec les déployeurs.
« Si la société veut une IA sûre, nous devons réfléchir sérieusement aux données qui entrent dans ces modèles. Concevons un cadre dans lequel les acteurs qui construisent et fournissent le système sont légalement responsables et précisons où se situe cette responsabilité », déclare M. Peukert.
« Les régulateurs ne peuvent pas anticiper tous les problèmes potentiels à venir concernant les résultats de l’IA. C’est pourquoi il est logique de se concentrer sur les données d’entrée et d’attribuer les responsabilités. Cela peut également fournir les bonnes incitations pour améliorer la qualité des données, réduire les risques et réglementer l’IA de manière efficace. »
Image © Cwa | Adobe Stock
Références :
- EU AI Act: first regulation on artificial intelligence, Parlement européen (8 juin 2023). ↩︎
- The risks of risk-based AI regulation: taking liability seriously,, Kretschmer, Martin et Kretschmer, Tobias et Peukert, Alexander et Peukert, Christian (27 septembre 2023). ↩︎