Maëlig Jacquet s’est lancé le défi de tester différents systèmes de reconnaissance faciale lors de sa thèse à l’UNIL obtenue en décembre 2021. Elle a mis en lumière leurs performances et leurs enjeux, un sujet épineux qui relève d’intelligence artificielle autant que d’éthique.
Lorsque l’unique preuve d’un crime est une vidéo de caméra de surveillance et qu’un logiciel de reconnaissance faciale accuse une personne, cela suffit-il pour l’incarcérer ? C’est ce qui s’était passé en 2019, à la suite de quoi l’avocat de la défense avait rétorqué au micro du journal Le Progrès : « Les juges ne sont là que pour avaliser les accusations numériques qui sont réalisées par un algorithme dont nous ignorons absolument tout. » Où en est-on aujourd’hui, faut-il se méfier des résultats de cette intelligence artificielle ?
Pas encore de pratique commune en Suisse
Nous avons rencontré Maëlig Jacquet, qui vient de terminer sa thèse sur l’utilisation de la reconnaissance faciale automatique en sciences criminelles. Elle nous explique que celle-ci peut être exploitée de différentes manières : lors de l’investigation, afin de trouver des personnes d’intérêt, lors du renseignement, pour déceler des séries de crimes, au tribunal, pour fournir des éléments de preuve, ou à titre préventif. Cependant, en Suisse romande, cela est encore peu appliqué, ou de manière extrêmement variée suivant les cantons. Mais ce n’est qu’une question de temps : « Cela devrait bientôt se faire. Les discussions ont été lancées », nous prévient-elle.
Trente-quatre volontaires ont accepté de jouer le jeu
Lors de sa thèse, Maëlig Jacquet a testé trois différents logiciels sur 34 personnes : deux systèmes commerciaux couramment utilisés (Idemia Morphoface Investigate et Morphoface Expert, plus récent), ainsi que celui développé par Google (FaceNet). En simulant le passage de ces volontaires sur un lieu de crime, elle a récolté des images de leurs cartes d’identité, de vidéos de distributeurs de billets et de caméras de surveillance et les a comparées à des dizaines de milliers de photos parmi lesquelles ont été glissés les profils de ces cobayes. Cette base de données a été mise à disposition par les polices vaudoise et neuchâteloise. Elle en ressort formelle : « Oui, ça fonctionne. » En ne regardant notamment que le premier résultat proposé par le logiciel MorphoFace Expert, elle a obtenu entre 85 et 100% de réussite. Les scores des systèmes de reconnaissance faciale se sont ainsi révélés être très bons.
Pour rendre ses explorations plus concrètes, Maëlig Jacquet a ensuite poussé sa recherche lors d’un mandat avec la police neuchâteloise en 2021 en utilisant des images de moins bonne qualité et donc plus réalistes. Les résultats sont moins bons, mais restent élevés :
« Le logiciel de reconnaissance faciale que j’ai testé est suffisant pour la phase d’investigation en sciences criminelles. En ce qui concerne l’utilisation de preuves issues de ces systèmes au tribunal, cela dépend de la qualité des images. »
Un fonctionnement qui reste opaque
Il reste que certains artifices peuvent représenter des difficultés aux algorithmes des systèmes de reconnaissance faciale, tels que le port de lunettes, d’un masque ou la pilosité des individus, sans que nous sachions toujours comment cela est traité. En effet, les dernières versions de ces logiciels dépendent de l’apprentissage profond, ou deep learning en anglais, qui comprend une part de mystère, puisqu’il apprend par lui-même : si son but est programmé, la manière de l’atteindre ne l’est pas et est donc automatique.
De plus, l’algorithme ne se nourrit que de ce qu’on lui donne, poursuit l’ex-doctorante :
« L’algorithme dépend de la base de données d’apprentissage. Si on fournit au logiciel uniquement des profils d’hommes blancs pour s’entraîner, cela peut créer des biais ethniques. Ce sont des problèmes majeurs, mais ils ne sont pas infranchissables. Il faut simplement entraîner le système avec des bases de données représentatives de la population. »
Des problèmes de surveillance massive ?
À Londres ou au Pays de Galles, la police exploite notamment le système de vidéosurveillance à des buts de reconnaissance faciale en direct. À l’extrême, en Chine ou à Moscou, ces logiciels sont amplement utilisés sur la place publique et les images largement stockées. Certaines polices ont décidé de les retirer, comme c’est le cas à Orlando ou Chicago. Maëlig Jacquet semble rassurée pour la Suisse :
« Je conçois que ça puisse faire peur, car on ne comprend pas encore tout. Les progrès technologiques vont plus vite que la validation scientifique. Mais c’est là l’importance de la recherche. »
La suite ? Maëlig Jacquet aimerait aider la police à mettre en place un système de reconnaissance faciale en Suisse qui soit en ligne avec les enjeux de fonctionnement, de fiabilité et d’éthique qu’elle a mis en lumière durant sa thèse. Une technologie qui soit utilisée en connaissance de cause.
Une récompense pour ces travaux
Le 31 mai 2022, Maëlig Jacquet a reçu le prix ENFSI Emerging Forensic Scientist Award 2022 pour récompenser l’excellence de sa recherche. En savoir plus sur le site d’actualité.