Respect de la vie privée : Comment lutter contre la diffusion non consensuelle de photos sur les réseaux sociaux ?

Read in English: Anglais

Aujourd’hui, dans un contexte où les utilisateur·trice·s du web signalent des niveaux toujours plus élevés de problèmes de confidentialité liés au partage de contenus photo et vidéo en ligne, et où la technologie d’extraction d’images et de reconnaissance faciale est de plus en plus répandue, il est urgent de trouver une solution efficace et facile à mettre en place.

Mauro Cherubini est professeur en systèmes d’informations. Ses recherches se concentrent sur l’utilisation des résultats de la psychologie et de l’économie comportementale pour la conception d’interfaces mobiles.

Kévin Huguenin est professeur en sécurité de l’information et vie privée. Il s’intéresse tant aux aspects techniques, qu’humains et sociaux.

Si les incidents de pornodivulgation font la une des médias, les problèmes de confidentialité liés à l’image en ligne vont bien au-delà de ce type d’action malveillante. Dans un monde où les logiciels fouillent le web pour en extraire des données-images que les entreprises peuvent utiliser à des fins commerciales, et où l’intelligence artificielle peut identifier les individus à partir des traits du visage, n’importe quelle personne qui figure dans une vidéo ou une photo peut devenir une victime potentielle. Qu’il s’agisse de cyberharcèlement, de cyberintimidation, d’usurpation d’identité ou de discrimination, dès lors que notre image est publiée en ligne, le risque existe. Une récente étude montre par exemple que les employeurs consultent fréquemment les profils des candidat·e·s sur les réseaux sociaux. Il est donc compréhensible que les revendications pour un contrôle plus poussé quant à la manière de traiter notre image en ligne – comment et où elle figure – soient de plus en plus insistantes.

La Déclaration universelle des droits de l’homme donne à chacun le droit à la confidentialité et à la protection par la loi contre les atteintes à la vie privée. Dans la plupart des économies développées, il existe généralement différentes formes de cadres législatifs qui couvrent les questions de vie privée en ligne. Toutefois, la protection offerte aux particuliers en cas de conflit multi-parties de la sphère privée (CMSP) – la publication de l’image d’une personne sans son consentement – varie considérablement (elle vise souvent essentiellement les cas graves et malveillants, par exemple). Compte tenu des millions de photos et de vidéos mises en ligne chaque jour, la lutte contre les CMSP nécessite de faire appel à des solutions pour soutenir la législation.

Le problème est très répandu : une enquête menée auprès de 1’792 utilisateurs et utilisatrices de médias sociaux aux États-Unis par les Prof. Mauro Cherubini et Kévin Huguenin, ainsi que le chargé de recherche Dr. Kavous Salehzadeh Niksirat, HEC Lausanne (UNIL), et leurs collègues chercheurs, révèle qu’environ 85% des utilisateurs ont partagé du contenu en ligne dans lequel figuraient d’autres personnes ou dans lequel ils apparaissaient. Au cours des 12 mois précédant l’étude, 16% des utilisateur·trice·s étaient à l’origine d’un CMSP en tant que publicateur·trice de contenu, près d’un quart avaient été victimes d’un CMSP et environ 7% avaient subi des conséquences graves, comme l’humiliation publique, la discrimination ou la pornodivulgation.

C’est la gravité et l’ampleur du problème qui ont incité les Prof. Cherubini, Prof. Huguenin, et Dr. Niksirat à chercher une solution pratique aux CMSP qui pourrait être mise en place par les fournisseurs de services en ligne. Cette solution doit permettre d’éviter les CMSP et de protéger la sphère privée des personnes concernées lorsque leur image apparaît dans un contenu partagé par quelqu’un d’autre (l’uploader) sur une plateforme de médias sociaux. Et ce, d’une manière à la fois efficace, relativement simple et facile d’utilisation, et généralement jugée acceptable par les utilisateur·trice·s (plus particulièrement les potentielles victimes).

Cela a conduit les auteurs à imaginer différentes sortes de dispositifs de protection de la vie privée, afin de pouvoir évaluer ensuite les préférences des utilisateur·trice·s. Trois dispositifs, dits de prévention, ont été imaginés : FaceBlock qui est un dispositif de protection de la vie privée où les utilisateurs vérifient leur identité auprès du fournisseur de services de partage de contenus à l’aide d’un selfie et d’un document d’identité. Lorsque le contenu est publié, et à moins que le consentement n’ait été donné suite à une notification automatique, le visage de toutes les personnes présentes sur la photo est flouté, à l’exception de celui de son auteur. ConsenShare, similaire à FaceBlock et issu d’une précédente recherche, mais dont l’étape initiale de gestion de l’identité est réalisée par un service tiers, distinct de la plateforme de partage de contenu. (ConsenShare a par ailleurs fait l’objet d’un article dans HECimpact). Et la troisième méthode, Négotiation, qui, à l’instar de FaceBlock, signale automatiquement le contenu aux personnes figurant sur une photo/vidéo en leur permettant de choisir entre quatre paramètres – « privé », « uniquement des amis en commun », « uniquement des amis » et « public » – puis de combiner les réponses et d’en choisir la plus restrictive.

Pour vérifier la pertinence et le niveau de faisabilité de leur approche, les chercheurs ont demandé l’avis d’utilisateurs et d’utilisatrices de réseaux sociaux en ligne (définis au sens large pour englober les applications de messagerie instantanée et les sites web de partage multimédia), qu’il s’agisse de publicateurs de contenus ou de personnes figurant dans des visuels. Ils les ont notamment interrogé·e·s sur deux principales stratégies pour traiter les CMSP:

a) les mécanismes de prévention : soit les mécanismes où l’on utilise la technologie (algorithmes et IA) pour automatiser la solution et donner le contrôle aux personnes qui figurent dans l’image. Les utilisateurs et utilisatrices de réseaux sociaux aux Etats-Unis qui ont fait partie de l’étude ont été questionnés sur les solutions FaceBlock, ConsenShare et Négotiation décrites plus haut.

b) et les mécanismes de dissuasion, soit les mécanismes qui utilisent des techniques de sciences comportementales pour décourager celles et ceux qui publient des contenus de le faire sans avoir obtenu leur consentement. Souvent appelés « nudges », ces types d’intervention se sont avérés être des moyens rentables, conviviaux et relativement efficaces pour atteindre les objectifs des politiques publiques. Avec les conflits multi-parties de la sphère privée, l’objectif est de montrer à celles et ceux qui publient du contenu un message d’avertissement avant qu’elles n’aient diffusé le contenu, pour les sensibiliser aux conséquences de ce partage. On peut espérer que cela les incitera à demander l’autorisation avant de publier et les dissuadera de diffuser du contenu sans autorisation. Sur les cinq messages dissuasifs affichés à l’écran, quatre étaient fondés sur la peur et/ou la honte pour dissuader les gens de partager des photos sans consentement. Ces messages menaçaient de prévenir immédiatement les contacts de celui ou celle qui partage le contenu en cas d’infraction ou émettaient un avertissement quant à un risque, par exemple, d’amende ou de poursuites judiciaires. Un cinquième message tentait de susciter l’empathie vis-à-vis des victimes potentielles, en leur rappelant que d’autres personnes pouvaient s’opposer au partage d’un contenu, même si son auteur le considérait comme acceptable.

Les réactions des utilisateur·trice·s américain·e·s de réseaux sociaux ont clairement montré qu’il existe une forte volonté à trouver un moyen d’empêcher les CMSP sur les plateformes de médias sociaux. Dans l’ensemble, les participants à l’enquête ont préféré les mesures de prévention aux mécanismes de dissuasion. Cela semble être dû au fait que les méthodes préventives éliminent l’incertitude liée à la décision de partager ou non un contenu, renforcent la collaboration, permettent d’avertir les personnes concernées de la circulation de contenus publiés sans consentement, et offrent généralement plus de contrôle et de protection aux utilisateurs de réseaux sociaux. Si les mesures dites de prévention ne limitent pas la capacité des publicateur·trice·s à diffuser du contenu-image, elles permettent à chaque personne qui y figure de vérifier la pertinence de partager ce contenu.

Une solution pragmatique

Bien que la majorité des utilisateur·trice·s aient privilégié les mécanismes de prévention, des recherches plus approfondies menées par les auteurs ont confirmé que les mécanismes de dissuasion ont leur place aussi parmi les solutions applicables aux CMSP.

Pour aller plus loin et sortir du cadre des solutions qu’ils avaient imaginées, les chercheurs ont invité des utilisateur·trice·s de réseaux sociaux à participer à un atelier de conception participative destiné à trouver des solutions aux CMSP. Globalement les solutions proposées sont proches de celles qui avait été testées par les chercheurs, et il serait possible de créer un mécanisme susceptible d’être mis en œuvre en réunissant des éléments des différentes propositions, soit une solution mixte.

Mais une idée centrale est née de cet atelier, celle d’une médiation entre les contrevenant·e·s et les personnes potentiellement victimes, que ce soit avant la publication pour se mettre d’accord sur le partage de contenu, ou après la publication pour réconcilier les parties. Une telle médiation reste toutefois difficile à mettre en œuvre si l’on veut faire intervenir des êtres humains au vu du nombre gigantesque de cas à traiter sur le web. Il faudrait dès lors se pencher sur une solution avec des chatbots (agent conversationnel) et c’est sur cet aspect que vont travailler les chercheurs à l’avenir. A titre d’exemple, on pourrait imaginer une solution où la personne qui publie du contenu reçoit automatiquement un avertissement lui rappelant la nécessité d’obtenir le consentement au préalable. S’il ou elle persiste vouloir publier du contenu sans consulter les personnes concernées, ces dernières en sont informées et peuvent soit donner leur accord, soit rentrer en médiation avec l’auteur de la publication via un système de chatbot.

Il ne fait aucun doute que les conflits multi-parties de la sphère privée constituent un problème sérieux et toujours plus important pour les fournisseurs et les utilisateurs de réseaux sociaux en ligne.  Bien que certains détails des solutions proposées par les auteurs doivent encore être réglés, la bonne nouvelle est qu’ils ont montré que des mécanismes efficaces et pratiques pour prévenir les CMSP sont possibles. Le défi consiste moins à éliminer les défauts de la solution proposée qu’à pallier le manque de sensibilisation du public à ce problème et à savoir si les réseaux sociaux accepteront de mettre en œuvre des solutions efficaces.

Papier de recherche: Cherubini M., Salehzadeh Niksirat K., Boldi M-O., Keopraseuth H., M.Such J., Huguenin K. (2021). When Forcing Collaboration is the Most Sensible Choice: Desirability of Precautionary and Dissuasive Mechanisms to Manage Multiparty Privacy Conflicts, Proceedings of the ACM on Human-Computer Interaction.

Crédits photos: Kindel Media / Pexels.com