{"id":7768,"date":"2017-01-26T08:25:33","date_gmt":"2017-01-26T06:25:33","guid":{"rendered":"http:\/\/wp.unil.ch\/allezsavoir\/?p=7768"},"modified":"2020-07-24T08:16:57","modified_gmt":"2020-07-24T06:16:57","slug":"il-faudra-bientot-des-lois-pour-les-robots","status":"publish","type":"post","link":"https:\/\/wp.unil.ch\/allezsavoir\/il-faudra-bientot-des-lois-pour-les-robots\/","title":{"rendered":"Il faudra bient\u00f4t des lois pour les robots"},"content":{"rendered":"<figure id=\"attachment_7722\" aria-describedby=\"caption-attachment-7722\" style=\"width: 590px\" class=\"wp-caption alignnone\"><img alt=\"\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-7722\" src=\"https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/robots_1_65.jpg\" alt=\"\" width=\"590\" height=\"396\" srcset=\"https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/robots_1_65.jpg 590w, https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/robots_1_65-387x260.jpg 387w\" sizes=\"auto, (max-width: 590px) 100vw, 590px\" \/><figcaption id=\"caption-attachment-7722\" class=\"wp-caption-text\">Alpha 1S<br \/>Ce robot humano\u00efde est un jouet avanc\u00e9, dont on peut programmer les mouvements gr\u00e2ce \u00e0 un smartphone.<br \/>\u00a9 Peter Nicholls \/ Reuters<\/figcaption><\/figure>\n<p><strong>Siri, Aido, Roxxxy : intelligences augment\u00e9es ou automates, les robots se d\u00e9clinent en tondeuse, conseiller, ami. Si ces engins surdou\u00e9s n\u2019ont pas encore d\u00e9pass\u00e9 la science-fiction, ils s\u2019en approchent. Avant qu\u2019ils n\u2019imposent leur loi, n\u2019est-il pas temps de leur donner un cadre juridique ? Sylvain M\u00e9tille, sp\u00e9cialiste du droit de la protection des donn\u00e9es et des nouvelles technologies, dit oui. <\/strong><\/p>\n<p>Qui bl\u00e2mer si un gestionnaire de fortune algorithmique m\u00e8ne son client \u00e0 la banqueroute ? Et si la tondeuse \u00e0 gazon robot d\u00e9molit le champ du voisin ou que le robot-chirurgien rate son op\u00e9ration ? Que se passera-t-il lorsque la Google Car \u2013 un v\u00e9hicule sans chauffeur pour l\u2019instant au stade exp\u00e9rimental \u2013 devra choisir entre sauver ses occupants ou un pi\u00e9ton en cas d\u2019accident ? Comment envisager la venue des drones autonomes ? A ce jour en Suisse, les robots n\u2019ont aucun statut juridique. Faut-il changer les lois aujourd\u2019hui d\u00e9j\u00e0 ? L\u2019avocat Sylvain M\u00e9tille, docteur en Droit et charg\u00e9 de cours \u00e0 l\u2019UNIL \u00e0 la Facult\u00e9 de droit, des sciences criminelles et d\u2019administration publique, est convaincu que le moment est venu d\u2019y penser. Entretien.<\/p>\n<p><strong>AS : Quelle est la d\u00e9finition du robot qui m\u00e9rite un statut juridique ?<\/strong><br \/>\nSylvain M\u00e9tille : Cela reste une question ouverte. On a besoin de faire un vrai choix de soci\u00e9t\u00e9. Soit on consid\u00e8re que, malgr\u00e9 toutes les \u00e9volutions, il s\u2019agit d\u2019un automate contr\u00f4lable et que tous les robots ne sont que des grille-pain am\u00e9lior\u00e9s qui suivent des r\u00e8gles : il n\u2019y a alors aucune raison de d\u00e9velopper de nouvelles lois, la responsabilit\u00e9 revenant au fabricant, au vendeur, voire \u00e0 l\u2019utilisateur. Soit on estime que le robot a une capacit\u00e9 d\u2019intelligence augment\u00e9e (terme qui a succ\u00e9d\u00e9 \u00e0 artificielle) et on doit se demander dans quelle mesure il peut prendre des d\u00e9cisions sur la base d\u2019instructions qu\u2019on ne lui aurait pas donn\u00e9es. Dans ce contexte-ci, il fait sens de cr\u00e9er une personnalit\u00e9 robot ou un syst\u00e8me particulier pour le traiter.<\/p>\n<p><strong>Qu\u2019entendez-vous exactement par \u00abpersonnalit\u00e9\u00bb robot ?<\/strong><br \/>\nLa version simple serait d\u2019avoir, \u00e0 la mani\u00e8re d\u2019une personne morale, une entit\u00e9 juridique s\u00e9par\u00e9e qui inclurait une responsabilit\u00e9 limit\u00e9e du robot en tant qu\u2019objet et\/ou syst\u00e8me informatique. C\u2019est-\u00e0-dire que les actes du robot lui seraient imputables et non plus au fabricant ou au propri\u00e9taire. Il s\u2019agirait d\u2019une personne au sens juridique, et non humain. Et pour \u00e9quilibrer le fait qu\u2019on d\u00e9douane le propri\u00e9taire ou le fabricant de ses responsabilit\u00e9s, on pourrait avoir une compensation en argent, sous forme d\u2019assurance. De la m\u00eame fa\u00e7on qu\u2019on compense la dangerosit\u00e9 d\u2019une voiture par l\u2019obligation de contracter une assurance. Ou on peut \u00e9tablir un parall\u00e8le avec la personne morale dans laquelle la responsabilit\u00e9 du marchand n\u2019est plus celle de la personne individuelle, mais le capital social de la soci\u00e9t\u00e9, qui assume la responsabilit\u00e9 en cas de d\u00e9faut de paiement. Dans l\u2019id\u00e9e du machine learning, le robot arrive \u00e0 apprendre, mais il apprend \u00e0 partir de ce qu\u2019on l\u2019a entra\u00een\u00e9 \u00e0 effectuer. Il n\u2019est pas compl\u00e8tement autonome. Il pourrait ainsi y avoir responsabilit\u00e9 de celui qui le forme.<\/p>\n<p><strong>Quels engins sont comparables \u00e0 une personne morale ?<\/strong><br \/>\nActuellement aucun, selon moi. Le robot aspirateur, tondeur, le d\u00e9mineur ou l\u2019humano\u00efde Nao ne peuvent \u00eatre assimil\u00e9s \u00e0 une personne morale. M\u00eame s\u2019ils sont intelligents, montrent des \u00e9motions, ils restent des objets juridiquement. On pourrait leur cr\u00e9er un statut particulier qui s\u2019inspirerait de celui de la personne morale. Mais ce n\u2019en sera jamais une. A ce stade, on arrive encore \u00e0 se d\u00e9brouiller avec nos lois, car ils sont limit\u00e9s dans leurs capacit\u00e9s. Les robots m\u00e9dicaux par exemple restent des outils. Celui qui assiste la main du m\u00e9decin lors d\u2019une intervention n\u2019est qu\u2019un scalpel \u00e9volu\u00e9. Aucun robot ne re\u00e7oit de patients en cabinet et juge seul de la pertinence d\u2019une op\u00e9ration. Cependant, quand un tel robot existera, il faudra se poser la question de sa responsabilit\u00e9.<\/p>\n<figure id=\"attachment_7725\" aria-describedby=\"caption-attachment-7725\" style=\"width: 393px\" class=\"wp-caption alignnone\"><img alt=\"\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-7725\" src=\"https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/SylvainMetille_65.jpg\" alt=\"\" width=\"393\" height=\"392\" srcset=\"https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/SylvainMetille_65.jpg 393w, https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/SylvainMetille_65-261x260.jpg 261w, https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/SylvainMetille_65-250x250.jpg 250w, https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/SylvainMetille_65-150x150.jpg 150w, https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/SylvainMetille_65-60x60.jpg 60w\" sizes=\"auto, (max-width: 393px) 100vw, 393px\" \/><figcaption id=\"caption-attachment-7725\" class=\"wp-caption-text\">Sylvain M\u00e9tille<br \/>Avocat, charg\u00e9 de cours \u00e0 l\u2019UNIL \u00e0 la Facult\u00e9 de droit, des sciences criminelles et d\u2019administration publique.<br \/>Nicole Chuard \u00a9 UNIL<\/figcaption><\/figure>\n<p><strong>La Google Car conduit seule, elle. O\u00f9 la situer dans la loi ?<\/strong><br \/>\nM\u00eame si on admet qu\u2019elle ne fait qu\u2019ob\u00e9ir \u00e0 des r\u00e8gles pr\u00e9\u00e9tablies, comme un automate, la loi sur la circulation routi\u00e8re doit \u00eatre modifi\u00e9e, parce qu\u2019un v\u00e9hicule a l\u2019obligation de poss\u00e9der un chauffeur. De plus, la conduite sur route n\u00e9cessite un permis, ce que la Google Car n\u2019a pas. Ce qu\u2019on demande \u00e0 ce jour, c\u2019est qu\u2019un conducteur humain se trouve derri\u00e8re le volant pour en tout temps pouvoir reprendre le contr\u00f4le. Il s\u2019agit juste d\u2019une assistance \u00e0 la conduite, tel le r\u00e9gulateur de vitesse, sauf qu\u2019elle est plus \u00e9volu\u00e9e.<\/p>\n<p><strong>Des tests sont r\u00e9alis\u00e9s \u00e0 Zurich sur un v\u00e9hicule similaire.<\/strong><br \/>\nOui, les chercheurs ont re\u00e7u des autorisations temporaires limit\u00e9es pour effectuer des tests o\u00f9 la voiture est cens\u00e9e \u00eatre autonome. Mais l\u2019humain reste derri\u00e8re. Certains Etats am\u00e9ricains sont all\u00e9s plus loin et ont permis \u00e0 une voiture de rouler seule, sans aucun conducteur dedans. Cela impliquera une modification de la loi, si la phase de test est convaincante. Certes, il y a eu des accidents. Mais quand il s\u2019agit uniquement de la responsabilit\u00e9 du v\u00e9hicule, cela pose moins de probl\u00e8mes, car, pour le mettre en circulation, le propri\u00e9taire doit l\u2019immatriculer et contracter une assurance. Tandis que pour poss\u00e9der un robot qui marche et fait les courses pour moi au supermarch\u00e9, le cadre juridique actuel ne pr\u00e9voit rien. La transition d\u2019un v\u00e9hicule avec un conducteur \u00e0 une voiture autonome sera plus ais\u00e9e que celle d\u2019un robot dans un monde o\u00f9 il n\u2019est pas pr\u00e9vu. Toutefois, comme on va retirer la responsabilit\u00e9 humaine, on devra l\u00e9gif\u00e9rer sur un syst\u00e8me particulier de responsabilit\u00e9 du v\u00e9hicule.<\/p>\n<p><strong>Et si, lors d\u2019un accident, le v\u00e9hicule doit choisir entre tuer ses passagers ou un pi\u00e9ton ?<\/strong><br \/>\nCe sera plus facile pour le robot que pour l\u2019humain, car il effectue tr\u00e8s vite un calcul de probabilit\u00e9s. Autre exemple: deux personnes marchent sur la route et il n\u2019arrive pas \u00e0 freiner. Qui \u00e9crase-t-il, l\u2019enfant ou la personne \u00e2g\u00e9e ? Probablement la personne \u00e2g\u00e9e qui a une esp\u00e9rance de vie moins longue que l\u2019enfant, pour autant que les cons\u00e9quences sur la personne qu\u2019il va \u00e9craser soient les m\u00eames. En effet, s\u2019il roule moins vite et qu\u2019il prend en compte la r\u00e9sistance de celui qui est heurt\u00e9, cela peut pond\u00e9rer le calcul. Est-il moins dommageable d\u2019avoir un mort ou un bless\u00e9 ? Apparemment, ce genre de cas peut s\u2019int\u00e9grer \u00e0 la m\u00e9moire des robots. La difficult\u00e9 reste de savoir qui prend la responsabilit\u00e9 \u00e9thique et morale de tels actes. Est-ce pour le fabricant ou faut-il que cela soit \u00e9crit dans les r\u00e8gles de circulation routi\u00e8re ? Il est interdit de rouler \u00e0 plus de 50 km\/h dans les villages. Dans notre exemple, on pourrait aussi concevoir qu\u2019on doit \u00e9craser la personne la plus \u00e2g\u00e9e, plut\u00f4t que l\u2019enfant.<\/p>\n<p><strong>Les concepteurs de la Google Car lui ont attribu\u00e9 une personnalit\u00e9 agressive. Au contraire de Philips dont l\u2019aspirateur autonome se veut calme et poli. Un gag ?<\/strong><br \/>\nNon, je ne vois pas cela comme des traits de caract\u00e8re. On leur fournit simplement des r\u00e8gles de comportement humain \u00e0 adopter. Les testeurs ont remarqu\u00e9 que si la Google Car roulait trop bien, d\u2019un pur point de vue scientifique, elle n\u2019\u00e9tait pas accept\u00e9e sur la route. Il fallait qu\u2019elle ait un comportement agressif pour ressembler aux autres conducteurs. Tandis que si elle laissait la priorit\u00e9, alors qu\u2019elle l\u2019avait, dans le but d\u2019une meilleure fluidit\u00e9 du trafic par exemple, \u00e7a n\u2019\u00e9tait pas compris par les usagers. Ainsi le v\u00e9hicule choisit ce qui est le plus favorable pour lui (comme un humain), et non pour l\u2019ensemble du trafic.<\/p>\n<p><strong>Une r\u00e8gle qui ne suit pas les lois d\u2019Asimov, puisque le robot se favorise au d\u00e9triment de l\u2019humain.<\/strong><br \/>\nOui, mais s\u2019il prom\u00e8ne son humain et qu\u2019il le fait passer avant les autres, Asimov reste valable. Cela pose toute une s\u00e9rie de questions inimaginables auparavant. Telles que: qui sauve-t-on en premier ? Est-ce \u00e9thique, politiquement recevable, d\u2019avoir un cadre de situation routi\u00e8re qui explique qui on \u00e9crase d\u2019abord ? Mais c\u2019est aussi totalement immoral, et inacceptable, de refuser de se poser la question, alors qu\u2019on sait que cela va arriver.<\/p>\n<p><strong>Et comment l\u00e9gif\u00e9rer sur les drones ?<\/strong><br \/>\nActuellement en Suisse, le drone est plus consid\u00e9r\u00e9 comme un grille-pain que comme un robot, parce qu\u2019il ne vole pas seul. Jusqu\u2019\u00e0 30 kilos, il n\u2019est soumis \u00e0 aucune autorisation, mais doit se trouver \u00e0 une distance visible de son propri\u00e9taire. Il n\u2019a pas le droit de voler \u00e0 moins de 100 m d\u2019une foule ou 5 km d\u2019un a\u00e9roport. Une assurance RC est n\u00e9cessaire si le drone d\u00e9passe 500 g. Au-dessus de 30 kilos, les r\u00e8gles \u00e0 suivre sont les m\u00eames que pour un avion. Donc, un cadre existe. Et d\u00e8s cette ann\u00e9e (2017), l\u2019OFAC (Office f\u00e9d\u00e9ral de l\u2019aviation civile) offre une proc\u00e9dure de certification aux fabricants. Le drone est appr\u00e9hend\u00e9 sous l\u2019angle de l\u2019objet volant qui risque de perturber le trafic, de tomber, d\u2019occasionner des d\u00e9g\u00e2ts, voire de tuer quelqu\u2019un. Ces risques existent ind\u00e9pendamment de savoir si le drone est autonome, a un pilote, ou pas.<\/p>\n<p><strong>Les robots militaires posent aussi probl\u00e8me&#8230;<\/strong><br \/>\nLa plupart d\u2019entre eux restent des outils. On en fait des armes qui sont contr\u00f4l\u00e9es par des humains. Comme les drones. D\u2019ailleurs, au d\u00e9but, il existait surtout des drones militaires. Aux Etats-Unis, quand les drones civils sont apparus, on a pr\u00e9f\u00e9r\u00e9 utiliser le terme de unmanned aircraft (engin sans pilote) pour \u00e9viter le parall\u00e8le avec l\u2019arm\u00e9e. Et pour cause: des pilotes am\u00e9ricains, bas\u00e9s dans le Nevada, pouvaient tuer \u00e0 des milliers de kilom\u00e8tres de l\u00e0 et sortaient ensuite de leur poste de commande pour retourner \u00e0 la vie civile. Cela a profond\u00e9ment choqu\u00e9. De plus, il y a le risque que la contre-attaque ne vise pas le drone, mais son poste de commandement sur sol am\u00e9ricain. Dans un souci commercial, le nom a alors chang\u00e9. Le robot l\u00e9tal autonome, lui, pose le probl\u00e8me de la responsabilit\u00e9 de celui qui l\u2019a configur\u00e9 pour \u00e9viter qu\u2019il commette une erreur. Dans un contexte de guerre, il est n\u00e9anmoins plus difficile de faire valoir ses droits en tant que victime. Cette question est surtout appr\u00e9hend\u00e9e du point de vue des droits de l\u2019homme, de la transparence du fonctionnement et de la banalisation d\u2019actes de guerre.<\/p>\n<p><strong>Certains soldats s\u2019attachent \u00e0 un robot d\u00e9mineur. Au point de lui donner un nom et de l\u2019enterrer. Qu\u2019en penser ?<br \/>\n<\/strong>A terme, cela pourrait peut-\u00eatre devenir un probl\u00e8me de sant\u00e9 publique. Est-ce que l\u2019attachement \u00e0 une machine est un risque \u00e0 \u00e9valuer et faut-il en prot\u00e9ger l\u2019Homme malgr\u00e9 lui, comme pour les \u00e9pid\u00e9mies, les radiations, un contact avec des substances nocives ? Si le robot est de plus \u00abd\u00e9guis\u00e9\u00bb en humain, on peut y voir une tromperie. Vous n\u2019allez pas accepter la cam\u00e9ra de surveillance de la police sous votre fen\u00eatre. En revanche, vous ne vous m\u00e9fiez pas de votre compagnon robot\u2026 Pourquoi ne pas imaginer une loi qui stipule que le robot ne doit pas trop se rapprocher de l\u2019\u00eatre humain pour sa sant\u00e9 mentale ? De la m\u00eame fa\u00e7on qu\u2019on limite la cigarette, l\u2019alcool, les drogues. Pour compl\u00e9ter les lois d\u2019Asimov, on pourrait ajouter, sous l\u2019angle de la protection des donn\u00e9es, l\u2019obligation de transparence algorithmique de la part du fabricant, ainsi que de pr\u00e9senter un robot comme tel, de quoi il est fait, ses capacit\u00e9s, qu\u2019on sache s\u2019il s\u2019agit d\u2019un traitement automatique ou pas, o\u00f9 partent les donn\u00e9es enregistr\u00e9es. Il n\u2019est ni un enfant ni un animal et ne peut avoir les m\u00eames droits. D\u2019un point de vue global, cela para\u00eet important de savoir si on croise quelqu\u2019un dans la rue s\u2019il est un robot ou si la personne qui m\u2019appelle en est un. Il y a un int\u00e9r\u00eat public \u00e0 d\u00e9finir un cadre juridique qui le consid\u00e8re comme dangereux, soumis \u00e0 autorisation.<\/p>\n<p><strong>Pourquoi cela ne s\u2019est pas encore fait ?<\/strong><br \/>\nParce que la question n\u2019est pas encore assez actuelle et que cela n\u2019est pas favorable \u00e0 l\u2019innovation. De l\u2019autre c\u00f4t\u00e9, selon le principe de pr\u00e9caution, on ne sait pas vraiment ce qui va se passer avec le robot, donc on a envie d\u2019interdire tout ce qui para\u00eet incontr\u00f4lable, d\u2019avoir un \u00abbouton panique\u00bb on\/off pour le neutraliser.<\/p>\n<p><strong>Le sp\u00e9cialiste de l\u2019intelligence augment\u00e9e David Levy juge qu\u2019en 2050, on \u00e9pousera des robots. Vous y croyez ?<\/strong><br \/>\nJe n\u2019esp\u00e8re pas! Juridiquement, cela ressemblerait \u00e0 l\u2019achat d\u2019une maison: s\u2019engager durablement devant la soci\u00e9t\u00e9 \u00e0 g\u00e9rer un objet. Le c\u00f4t\u00e9 bilat\u00e9ral des droits et obligations n\u2019existe pas. La maison ne peut rien attendre de moi. Le souci, c\u2019est de mettre des obligations \u00e0 charge de l\u2019humain dont en r\u00e9alit\u00e9 personne ne b\u00e9n\u00e9ficie, si la machine est toujours consid\u00e9r\u00e9e comme telle. On tomberait alors dans un cas d\u2019ali\u00e9nation que le droit ne peut permettre. Par contre, si on estime que l\u2019 \u00abemo-robot\u00bb (qui \u00aba\u00bb des \u00e9motions) a une vraie personnalit\u00e9, il doit avoir les m\u00eames droits que nous. Un sc\u00e9nario inqui\u00e9tant. De la m\u00eame mani\u00e8re qu\u2019on a des lois sur la recherche g\u00e9n\u00e9tique qui limitent les actions pour \u00e9viter d\u2019avoir des b\u00e9b\u00e9s de recherche ou pourvoyeurs d\u2019organes de remplacement, etc., peut-\u00eatre devrait-on aussi l\u00e9gif\u00e9rer maintenant sur ce qui est acceptable ou pas pour le d\u00e9veloppement des robots.<\/p>\n<figure id=\"attachment_7723\" aria-describedby=\"caption-attachment-7723\" style=\"width: 100px\" class=\"wp-caption alignnone\"><img alt=\"\" loading=\"lazy\" decoding=\"async\" class=\"size-full wp-image-7723\" src=\"https:\/\/wp.unil.ch\/allezsavoir\/files\/2017\/01\/robots_livre_65.jpg\" alt=\"\" width=\"100\" height=\"151\" \/><figcaption id=\"caption-attachment-7723\" class=\"wp-caption-text\">\u00a9 coll. Agence Martienne<\/figcaption><\/figure>\n<h3>Les trois lois d&rsquo;Asimov<\/h3>\n<p>La plupart des essais de lois sur les robots se basent sur une nouvelle de science-fiction, celle de l\u2019\u00e9crivain am\u00e9ricain Isaac Asimov, intitul\u00e9e <em>Cycle ferm\u00e9<\/em>, parue en 1942 dans le magazine<em> Astounding Science Fiction<\/em>. L\u2019auteur y pr\u00e9sente ses \u00abtrois lois de la robotique\u00bb :<\/p>\n<p><strong>Loi N\u00b0 1<\/strong> Un robot ne peut porter atteinte \u00e0 un \u00eatre humain ni, restant passif, permettre qu\u2019un \u00eatre humain soit expos\u00e9 au danger ;<br \/>\n<strong>Loi n\u00b0 2<\/strong> Un robot doit ob\u00e9ir aux ordres que lui donne un \u00eatre humain, sauf si de tels ordres entrent en conflit avec la premi\u00e8re loi ;<br \/>\n<strong>Loi n\u00b0 3<\/strong> Un robot doit prot\u00e9ger son existence tant que cette protection n\u2019entre pas en conflit avec la premi\u00e8re ou la seconde loi.<\/p>\n<p>Au fil des ann\u00e9es d\u2019\u00e9criture, Asimov les a quelque peu affin\u00e9es, mais elles restent le pilier des principaux projets de juridiction actuels et sont commun\u00e9ment appel\u00e9es \u00ables trois lois d\u2019Asimov\u00bb.<\/p>\n<h3>Des pistes \u00e0 suivre<\/h3>\n<p><strong>\u2022 La Cor\u00e9e du Sud pionni\u00e8re<\/strong><br \/>\nDepuis 2007, les Autorit\u00e9s sud-cor\u00e9ennes planchent sur une charte de l\u2019\u00e9thique des robots, fond\u00e9e sur les trois lois d\u2019Asimov. Le Conseil national des sciences et technologies de la communication, d\u00e9sireux de faire de la Cor\u00e9e le leader mondial de la robotique, pousse au d\u00e9veloppement d\u2019humano\u00efdes cognitifs autonomes. Et a donc int\u00e9r\u00eat \u00e0 l\u00e9gif\u00e9rer avant la d\u00e9ferlante.<\/p>\n<p><strong>\u2022 Une motion europ\u00e9enne<\/strong><br \/>\nEn 2016, une motion a \u00e9t\u00e9 d\u00e9pos\u00e9e au Parlement europ\u00e9en \u00abconcernant des r\u00e8gles de droit civil de la robotique\u00bb. En r\u00e9sum\u00e9, le rapport Delvaux estime qu\u2019il faut que les employeurs qui remplacent un humain par un robot paient un imp\u00f4t sp\u00e9cial (retenu sur les \u00e9conomies r\u00e9alis\u00e9es par ledit remplacement) pour les actuelles cotisations sociales, que les fabricants d\u2019engins autonomes doivent avoir une assurance responsabilit\u00e9 civile et qu\u2019un revenu universel de base doit \u00eatre instaur\u00e9 (pour ne pas pr\u00e9t\u00e9riter les \u00eatres humains).<\/p>\n<p><strong>\u2022 Un avocat high-tech<\/strong><br \/>\nAlain Bensoussan, avocat technologue au Barreau de Paris, fondateur de l\u2019Association du droit des robots (ADDR), a imagin\u00e9 10 articles dans une \u00abCharte des droits des robots\u00bb. Il propose entre autres une d\u00e9finition: \u00abune machine dot\u00e9e d\u2019intelligence artificielle, prenant des d\u00e9cisions autonomes, pouvant se d\u00e9placer de mani\u00e8re autonome dans des environnements publics ou priv\u00e9s et agissant en concertation avec les personnes humaines\u00bb. Et \u00e9tablit ce qu\u2019est la personne robot: elle \u00abdispose d\u2019un nom, d\u2019un num\u00e9ro d\u2019identification, d\u2019un capital et d\u2019un repr\u00e9sentant l\u00e9gal pouvant \u00eatre une personne morale ou une personne physique\u00bb.<br \/>\nSources: <a href=\"https:\/\/www.alain-bensoussan.com\" target=\"_blank\" rel=\"noopener noreferrer\">www.alain-bensoussan.com<\/a> | <a href=\"https:\/\/www.europarl.europa.eu\" target=\"_blank\" rel=\"noopener noreferrer\">www.europarl.europa.eu<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Siri, Aido, Roxxxy : intelligences augment\u00e9es ou automates, les robots se d\u00e9clinent en tondeuse, conseiller, ami. Si ces engins surdou\u00e9s n\u2019ont pas encore d\u00e9pass\u00e9 la science-fiction, ils s\u2019en approchent. Avant &hellip; <\/p>\n","protected":false},"author":825,"featured_media":7724,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[42136,42160,32],"tags":[39529],"class_list":{"0":"post-7768","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-droit","8":"category-no-65","9":"category-technologie","10":"tag-virginie-jobe"},"_links":{"self":[{"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/posts\/7768","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/users\/825"}],"replies":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/comments?post=7768"}],"version-history":[{"count":0,"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/posts\/7768\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/media\/7724"}],"wp:attachment":[{"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/media?parent=7768"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/categories?post=7768"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/wp.unil.ch\/allezsavoir\/wp-json\/wp\/v2\/tags?post=7768"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}