ai campus n

IA et vie privée : comment empêcher la réutilisation de vos données personnelles

Les grandes IA grand public (ChatGPT, Gemini, Copilot, Meta AI, etc.) ne se contentent pas de “répondre à vos questions”. Elles apprennent aussi de vous. Chaque message, chaque préférence, chaque détail personnel peut potentiellement être réutilisé pour entraîner leurs modèles. Et ça, la plupart des gens ne le savent pas ou ne savent pas comment le refuser.

La CNIL — la Commission nationale de l’informatique et des libertés — est l’autorité publique française chargée de protéger les données personnelles et de veiller au respect de la vie privée dans le numérique. Elle ne se contente pas de réguler : elle outille les utilisateurs.
Elle met à disposition un guide pratique (accessible ici : https://www.cnil.fr/fr/ia-comment-sopposer-la-reutilisation-de-ses-donnees-personnelles-entrainement-agent-conversationnel) qui explique concrètement comment s’opposer à la réutilisation de ses données personnelles par les principaux services d’IA.

Le développement constant des agents conversationnels (ChatGPT, Gemini, Copilot, Meta AI, etc.) s’accompagne d’une question majeure : que deviennent nos données personnelles une fois que nous les avons fournies à ces outils ? De plus en plus d’entreprises réutilisent en effet l’historique des conversations, les profils utilisateurs ou même des contenus publics pour entraîner et améliorer leurs modèles d’intelligence artificielle.

La CNIL propose aujourd’hui une ressource pratique et très concrète qui explique, service par service, comment s’opposer à cette réutilisation de ses données personnelles. Elle ne se prononce pas sur la conformité de ces pratiques au RGPD, mais elle donne aux utilisateurs des moyens d’action immédiats.

capture d’écran 2025 10 30 à 13.59.17

Ce guide détaille, pas à pas, où cliquer et quelles options désactiver sur les principales plateformes d’IA du marché. Par exemple : comment désactiver l’« Activité dans les applications Gemini » chez Google, au risque de supprimer l’historique de vos conversations ; comment remplir les formulaires de Meta pour refuser l’utilisation de vos informations (y compris si vous n’avez pas de compte) ; où décocher l’option « Améliorer le modèle pour tous » dans les réglages de ChatGPT ; ou encore comment, sur LinkedIn, retirer l’autorisation d’utiliser vos données de profil pour entraîner ses modèles d’IA générative. Le document couvre aussi Copilot (Microsoft), Grok (X), DeepSeek, Le Chat (Mistral), Claude (Anthropic) ou WhatsApp, avec des indications précises sur les menus à ouvrir, les intitulés exacts des rubriques et les formulaires à utiliser.

Concrètement, cette ressource permet à chacun de reprendre un minimum de contrôle : limiter la collecte, empêcher la réutilisation de ses échanges à des fins d’entraînement, et faire valoir son droit d’opposition. Elle est utile à la fois pour le grand public (qui cherche juste “où décocher la case”) et pour les professionnels / équipes conformité qui doivent informer leurs collaborateurs sur les risques liés au partage de données sensibles dans ces outils. Dans un contexte où l’IA s’intègre partout — travail, messageries, réseaux sociaux — disposer d’un mode d’emploi clair, à jour (16 octobre 2025), et centré sur les droits des utilisateurs est devenu indispensable.

Pendant longtemps, l’IA a été présentée comme une boîte noire : puissante, fascinante, inévitable. Mais pas forcément négociable. Ce document publié par la CNIL change l’équilibre : il rappelle que vos données personnelles ne sont pas une monnaie gratuite pour former des modèles sans votre accord, et que vous avez un droit d’opposition.

Autrement dit : “l’IA a besoin de données pour apprendre, mais vos données ont besoin de limites”.

Mettre en place ces réglages, ce n’est pas de la paranoïa. C’est de l’hygiène numérique basique, au même titre que choisir un bon mot de passe ou activer l’authentification à deux facteurs.
Le guide de la CNIL vous donne les gestes techniques, service par service. À vous ensuite de décider, en connaissance de cause, ce que vous acceptez de partager — et ce que vous refusez.