{"id":7403,"date":"2024-03-07T10:54:02","date_gmt":"2024-03-07T09:54:02","guid":{"rendered":"https:\/\/wp.unil.ch\/hecoutreach\/?p=7403"},"modified":"2024-03-07T11:18:30","modified_gmt":"2024-03-07T10:18:30","slug":"intelligence-artificielle-ia-la-necessite-de-placer-les-donnees-au-coeur-de-lia-et-de-sa-reglementation","status":"publish","type":"post","link":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/intelligence-artificielle-ia-la-necessite-de-placer-les-donnees-au-coeur-de-lia-et-de-sa-reglementation\/","title":{"rendered":"Intelligence Artificielle (IA) &#8211; La n\u00e9cessit\u00e9 de placer les donn\u00e9es au c\u0153ur de l&rsquo;IA et de sa r\u00e9glementation"},"content":{"rendered":"\n<p>La toute premi\u00e8re loi mondiale sur l&rsquo;intelligence artificielle (IA) devrait \u00eatre adopt\u00e9e par le Parlement de l&rsquo;Union europ\u00e9enne cette ann\u00e9e. L&rsquo;AI Act<sup data-fn=\"2f3de7f3-8d5e-48d2-8e9e-a9ffc19827d1\" class=\"fn\"><a href=\"#2f3de7f3-8d5e-48d2-8e9e-a9ffc19827d1\" id=\"2f3de7f3-8d5e-48d2-8e9e-a9ffc19827d1-link\">1<\/a><\/sup> est la premi\u00e8re l\u00e9gislation gouvernementale compl\u00e8te visant \u00e0 superviser l&rsquo;utilisation de la technologie. Elle adopte une approche fond\u00e9e sur les risques afin de pr\u00e9venir les cons\u00e9quences n\u00e9fastes et pourrait avoir un impact au-del\u00e0 de l&rsquo;Europe. De nouvelles recherches sugg\u00e8rent une approche diff\u00e9rente.<\/p>\n\n\n\n<p>La loi europ\u00e9enne sur l&rsquo;IA a attir\u00e9 l&rsquo;attention du monde entier parce qu&rsquo;elle \u00e9tablira des limites pour les outils d&rsquo;intelligence artificielle en rapide \u00e9volution, devenus omnipr\u00e9sents. Les r\u00e8gles r\u00e9giront \u00e9galement les mod\u00e8les de base ou l&rsquo;IA g\u00e9n\u00e9rative telle que ChatGPT cr\u00e9\u00e9e par OpenAI et Gemini de Google. Ces syst\u00e8mes d&rsquo;IA sont entra\u00een\u00e9s \u00e0 partir de vastes ensembles de donn\u00e9es, avec la capacit\u00e9 d&rsquo;apprendre \u00e0 partir de nouvelles donn\u00e9es pour effectuer diverses t\u00e2ches.<\/p>\n\n\n\n<p>L&rsquo;approche r\u00e9glementaire de l&rsquo;UE, qui entrera en vigueur en avril, se concentre sur l&rsquo;\u00e9valuation des risques associ\u00e9s \u00e0 chaque cas d&rsquo;utilisation de l&rsquo;IA et \u00e0 ses r\u00e9sultats. Mais il peut \u00eatre difficile d&rsquo;en juger, en particulier pour les cas qui restent \u00e0 d\u00e9couvrir. La loi europ\u00e9enne sur l&rsquo;IA obligera \u00e9galement les organisations \u00e0 utiliser des donn\u00e9es d&rsquo;entr\u00e9e de haute qualit\u00e9, mais la mani\u00e8re de mettre cela en \u0153uvre n&rsquo;est pas bien comprise. Une m\u00e9thode diff\u00e9rente est n\u00e9cessaire pour s&rsquo;assurer que les organisations se conforment \u00e0 la loi.&nbsp;&nbsp;<\/p>\n\n\n\n<p>\u00ab\u00a0Nous n&rsquo;avons pas beaucoup vu de texte ni de contenus sur la responsabilit\u00e9 dans cette loi, ce qui est probl\u00e9matique. L&rsquo;IA est complexe, elle \u00e9volue en permanence. La r\u00e9glementation devrait s&rsquo;attacher \u00e0 garantir la qualit\u00e9 des intrants de l&rsquo;IA, sans essayer d&rsquo;anticiper tous les r\u00e9sultats possibles. Cela peut \u00eatre plus facilement compris et contr\u00f4l\u00e9 avant que l&rsquo;IA ne soit d\u00e9ploy\u00e9e\u00a0\u00bb, explique <a href=\"https:\/\/www.christian-peukert.com\/\">Christian Peukert<\/a>, professeur associ\u00e9 en digitalisation, innovation et propri\u00e9t\u00e9 intellectuelle \u00e0 HEC Lausanne.<\/p>\n\n\n\n<p>La recherche de Peukert et de ses coll\u00e8gues<sup data-fn=\"933ec9bd-4c5f-4e7f-bce4-2615666e8623\" class=\"fn\"><a href=\"#933ec9bd-4c5f-4e7f-bce4-2615666e8623\" id=\"933ec9bd-4c5f-4e7f-bce4-2615666e8623-link\">2<\/a><\/sup><sup> <\/sup>propose que les organisations examinent de plus pr\u00e8s les donn\u00e9es d&rsquo;entr\u00e9e des mod\u00e8les d&rsquo;IA afin de r\u00e9duire les risques de conformit\u00e9. En particulier, il est important de d\u00e9terminer qui est responsable des sources de donn\u00e9es de mauvaise qualit\u00e9 afin d&rsquo;attribuer les responsabilit\u00e9s.Les raisons pour lesquelles certains ensembles de donn\u00e9es sont incomplets \u00e9chappent au contr\u00f4le du fournisseur ou des utilisateurs de l&rsquo;IA. Ces raisons exog\u00e8nes de mauvaise qualit\u00e9 des donn\u00e9es peuvent exister, par exemple, en raison des r\u00e9glementations en mati\u00e8re de protection de la vie priv\u00e9e. Dans d&rsquo;autres cas, les donn\u00e9es sont de mauvaise qualit\u00e9 parce que quelqu&rsquo;un a modifi\u00e9 les informations en sa faveur. Cela peut entra\u00eener des probl\u00e8mes de biais de l&rsquo;IA. Une r\u00e9partition judicieuse de la responsabilit\u00e9 entre le d\u00e9veloppeur ou le d\u00e9ployeur de l&rsquo;IA peut contribuer \u00e0 inciter toutes les parties \u00e0 travailler dur pour obtenir des donn\u00e9es de haute qualit\u00e9. Il convient \u00e9galement de d\u00e9terminer si l&rsquo;IA est install\u00e9e une seule fois et si son mode de fonctionnement est fixe, comme dans le cas d&rsquo;un syst\u00e8me d&rsquo;IA form\u00e9 \u00e0 la reconnaissance des plaques d&rsquo;immatriculation des v\u00e9hicules, ou si son d\u00e9ploiement et son apprentissage sont continus. C&rsquo;est le cas, par exemple, d&rsquo;un robot de conversation form\u00e9 \u00e0 partir d&rsquo;un mod\u00e8le linguistique \u00e9tendu. Sur cette base, l&rsquo;\u00e9quipe du Prof. Peukert a cr\u00e9\u00e9 un cadre de responsabilit\u00e9.<\/p>\n\n\n\n<p><strong>Cadre de responsabilit\u00e9 ax\u00e9 sur les intrants de l&rsquo;IA et les mod\u00e8les de d\u00e9ploiement<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-table\"><table><tbody><tr><td><\/td><td><strong><br>D\u00e9ploiement ponctuel<\/strong><\/td><td><strong><br>D\u00e9ploiement continu<\/strong><\/td><\/tr><tr><td><strong>Probl\u00e8mes de donn\u00e9es exog\u00e8nes<\/strong><\/td><td>Responsabilit\u00e9 du d\u00e9veloppeur<\/td><td>Responsabilit\u00e9 du d\u00e9veloppeur<\/td><\/tr><tr><td><strong>Probl\u00e8mes li\u00e9s aux donn\u00e9es endog\u00e8nes<\/strong><\/td><td>Responsabilit\u00e9 du d\u00e9ployeur<\/td><td>Responsabilit\u00e9 conjointe du d\u00e9veloppeur et du d\u00e9ployeur<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>L&rsquo;attribution de la responsabilit\u00e9 aux d\u00e9veloppeurs et aux d\u00e9ployeurs dans diff\u00e9rentes situations en fonction des donn\u00e9es fournies permet aux organisations de codifier les responsabilit\u00e9s. Ce cadre pr\u00e9cise \u00e9galement quand les d\u00e9veloppeurs d&rsquo;IA doivent collaborer avec les d\u00e9ployeurs.<\/p>\n\n\n\n<p>\u00ab\u00a0Si la soci\u00e9t\u00e9 veut une IA s\u00fbre, nous devons r\u00e9fl\u00e9chir s\u00e9rieusement aux donn\u00e9es qui entrent dans ces mod\u00e8les. Concevons un cadre dans lequel les acteurs qui construisent et fournissent le syst\u00e8me sont l\u00e9galement responsables et pr\u00e9cisons o\u00f9 se situe cette responsabilit\u00e9\u00a0\u00bb, d\u00e9clare M. Peukert.&nbsp;&nbsp;<\/p>\n\n\n\n<p>\u00ab\u00a0Les r\u00e9gulateurs ne peuvent pas anticiper tous les probl\u00e8mes potentiels \u00e0 venir concernant les r\u00e9sultats de l&rsquo;IA. C&rsquo;est pourquoi il est logique de se concentrer sur les donn\u00e9es d&rsquo;entr\u00e9e et d&rsquo;attribuer les responsabilit\u00e9s. Cela peut \u00e9galement fournir les bonnes incitations pour am\u00e9liorer la qualit\u00e9 des donn\u00e9es, r\u00e9duire les risques et r\u00e9glementer l&rsquo;IA de mani\u00e8re efficace.\u00a0\u00bb<\/p>\n\n\n\n<p>Image \u00a9\u00a0Cwa | Adobe Stock<\/p>\n\n\n\n<p><strong>R\u00e9f\u00e9rences :<\/strong><\/p>\n\n\n<ol class=\"wp-block-footnotes\"><li id=\"2f3de7f3-8d5e-48d2-8e9e-a9ffc19827d1\"><a href=\"https:\/\/www.europarl.europa.eu\/topics\/en\/article\/20230601STO93804\/eu-ai-act-first-regulation-on-artificial-intelligence\"><strong>EU AI Act: first regulation on artificial intelligence<\/strong><\/a>, Parlement europ\u00e9en (8 juin 2023). <a href=\"#2f3de7f3-8d5e-48d2-8e9e-a9ffc19827d1-link\" aria-label=\"Aller \u00e0 la note de bas de page 1\">\u21a9\ufe0e<\/a><\/li><li id=\"933ec9bd-4c5f-4e7f-bce4-2615666e8623\"><a href=\"https:\/\/ssrn.com\/abstract=4622405\"><strong>The risks of risk-based AI regulation: taking liability seriously,<\/strong><\/a>, Kretschmer, Martin et Kretschmer, Tobias et Peukert, Alexander et Peukert, Christian (27 septembre 2023). <a href=\"#933ec9bd-4c5f-4e7f-bce4-2615666e8623-link\" aria-label=\"Aller \u00e0 la note de bas de page 2\">\u21a9\ufe0e<\/a><\/li><\/ol>","protected":false},"excerpt":{"rendered":"<p>La toute premi\u00e8re loi mondiale sur l&rsquo;intelligence artificielle (IA) devrait \u00eatre adopt\u00e9e par le Parlement de l&rsquo;Union europ\u00e9enne cette ann\u00e9e. L&rsquo;AI Act est la premi\u00e8re l\u00e9gislation gouvernementale compl\u00e8te&hellip;<\/p>\n","protected":false},"author":1002640,"featured_media":7432,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":"[{\"id\":\"2f3de7f3-8d5e-48d2-8e9e-a9ffc19827d1\",\"content\":\"<a href=\\\"https:\\\/\\\/www.europarl.europa.eu\\\/topics\\\/en\\\/article\\\/20230601STO93804\\\/eu-ai-act-first-regulation-on-artificial-intelligence\\\"><strong>EU AI Act: first regulation on artificial intelligence<\\\/strong><\\\/a>, Parlement europ\\u00e9en (8 juin 2023).\"},{\"id\":\"933ec9bd-4c5f-4e7f-bce4-2615666e8623\",\"content\":\"<a href=\\\"https:\\\/\\\/ssrn.com\\\/abstract=4622405\\\"><strong>The risks of risk-based AI regulation: taking liability seriously,<\\\/strong><\\\/a>, Kretschmer, Martin et Kretschmer, Tobias et Peukert, Alexander et Peukert, Christian (27 septembre 2023).\"}]"},"categories":[940,937],"tags":[],"class_list":{"0":"post-7403","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-digitalisation-et-technologie","8":"category-recherche"},"_links":{"self":[{"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/posts\/7403","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/users\/1002640"}],"replies":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/comments?post=7403"}],"version-history":[{"count":3,"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/posts\/7403\/revisions"}],"predecessor-version":[{"id":7435,"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/posts\/7403\/revisions\/7435"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/media\/7432"}],"wp:attachment":[{"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/media?parent=7403"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/categories?post=7403"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/wp.unil.ch\/hecoutreach\/fr\/wp-json\/wp\/v2\/tags?post=7403"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}