{"id":2191,"date":"2025-07-09T16:57:49","date_gmt":"2025-07-09T14:57:49","guid":{"rendered":"https:\/\/wp.unil.ch\/iaunil\/?p=2191"},"modified":"2026-03-02T12:06:21","modified_gmt":"2026-03-02T11:06:21","slug":"modele-ia-local-pour-les-donnees-privees-sensibles-et-liees-au-secret-de-fonction","status":"publish","type":"post","link":"https:\/\/wp.unil.ch\/iaunil\/modele-ia-local-pour-les-donnees-privees-sensibles-et-liees-au-secret-de-fonction\/","title":{"rendered":"Installer un mod\u00e8le IA local pour les donn\u00e9es sensibles (mise \u00e0 jour 2026)"},"content":{"rendered":"\n<h3 class=\"wp-block-heading\">Pourquoi passer \u00e0 une IA locale ?<\/h3>\n\n\n\n<p>Par d\u00e9cision de la Direction, les donn\u00e9es sensibles au sens de la l\u00e9gislation suisse ne doivent pas \u00eatre trait\u00e9es dans des solutions cloud. Le recours \u00e0 un mod\u00e8le local constitue l&rsquo;alternative recommand\u00e9e.<\/p>\n\n\n\n<p>Les LLM commerciaux (ChatGPT, Claude, Google Gemini\u2026) envoient requ\u00eates et fichiers vers des centres de donn\u00e9es externes. Avec <strong>LM Studio + Gemma 3n E4B<\/strong>, tout se d\u00e9roule <strong>sur votre ordinateur<\/strong> :<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>100\u202f% open\u2011source&nbsp;:<\/strong> Le code, les poids et les outils sont librement accessibles, modifiables et auditables, garantissant une transparence totale et une ma\u00eetrise compl\u00e8te de vos donn\u00e9es.<\/li>\n\n\n\n<li><strong>Aucune donn\u00e9e transmise \u00e0 des serveurs distants<\/strong> : vos informations restent chez vous (le mod\u00e8le fonctionne enti\u00e8rement hors ligne).<\/li>\n\n\n\n<li><strong>Indispensable pour les donn\u00e9es sensibles<\/strong> au sens de la l\u00e9gislation suisse (donn\u00e9es de sant\u00e9, opinions politiques ou religieuses, donn\u00e9es relatives \u00e0 des proc\u00e9dures p\u00e9nales, etc.). \u00c9galement utilisable pour les documents priv\u00e9s ou li\u00e9s au secret de fonction, en compl\u00e9ment de Microsoft Copilot Chat institutionnel.<\/li>\n\n\n\n<li><strong>Performances d\u00e9sormais cr\u00e9dibles face aux solutions commerciales<\/strong> : Gemma 3n E4B atteint presque un score de 1300 sur <a href=\"https:\/\/arena.ai\/\">Arena<\/a> quand les derniers mod\u00e8les cloud sont \u00e0 ~1500.<\/li>\n\n\n\n<li><strong>Consommation ma\u00eetris\u00e9e<\/strong> : sur un MacBook Air M2 (~20 W), le processus d\u2019inf\u00e9rence (requ\u00eate + r\u00e9ponse) utilise bien moins d\u2019\u00e9nergie qu\u2019un serveur avec GPU Nvidia H100 (~700 W), souvent employ\u00e9 pour les mod\u00e8les commerciaux.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Installer LM Studio<\/h3>\n\n\n\n<ol class=\"wp-block-list\">\n<li>T\u00e9l\u00e9chargez l\u2019application gratuite sur <strong><a href=\"https:\/\/lmstudio.ai\/\" class=\"\">https:\/\/lmstudio.ai<\/a><\/strong>.<\/li>\n\n\n\n<li>Lancez l\u2019installateur, puis ouvrez LM Studio. Aucun compte n\u2019est requis.<\/li>\n<\/ol>\n\n\n\n<h3 class=\"wp-block-heading\">Ajouter le mod\u00e8le <strong>gemma-3n-E4B<\/strong><\/h3>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Dans la barre de recherche de LM Studio (<strong>Discover<\/strong>), tapez <strong>gemma-3n-E4B<\/strong>.<\/li>\n\n\n\n<li>S\u00e9lectionnez la version GGUF (environ 4 Go) plut\u00f4t que la version MLX (environ 11 Go, trop lourde pour 16 Go de RAM).<\/li>\n\n\n\n<li>Cliquez sur <strong>Download<\/strong> pour copier le mod\u00e8le (quelques Go) sur votre machine.<\/li>\n\n\n\n<li>Une fois le t\u00e9l\u00e9chargement termin\u00e9, cliquez sur <strong>Load<\/strong> pour le charger.<\/li>\n<\/ol>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"640\" src=\"https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.46.00-1024x640.png\" alt=\"capture d\u2019e\u0301cran 2025 07 09 a\u0300 16.46.00\" class=\"wp-image-2198\" srcset=\"https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.46.00-1024x640.png 1024w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.46.00-300x188.png 300w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.46.00-768x480.png 768w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.46.00-1536x960.png 1536w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.46.00.png 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Travailler en toute confidentialit\u00e9<\/h3>\n\n\n\n<p>Glissez-d\u00e9posez vos PDF, DOCX ou rapports internes dans la fen\u00eatre de chat (n\u00e9cessite d&rsquo;attendre que le document soit charg\u00e9). LM Studio indexe et interroge vos documents <strong>sans qu\u2019ils sortent de votre ordinateur<\/strong>. Pour les <strong>donn\u00e9es sensibles<\/strong>, c&rsquo;est actuellement la seule approche conforme aux exigences de l&rsquo;UNIL, car aucune donn\u00e9e ne quitte votre poste de travail.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"640\" src=\"https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.55.07-1024x640.png\" alt=\"capture d\u2019e\u0301cran 2025 07 09 a\u0300 16.55.07\" class=\"wp-image-2205\" srcset=\"https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.55.07-1024x640.png 1024w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.55.07-300x188.png 300w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.55.07-768x480.png 768w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.55.07-1536x960.png 1536w, https:\/\/wp.unil.ch\/iaunil\/files\/2025\/07\/capture-decran-2025-07-09-a-16.55.07.png 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Pourquoi le mod\u00e8le local Gemma 3n E4B ?<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Troisi\u00e8me g\u00e9n\u00e9ration \u00ab nano \u00bb (3n)<\/strong> : pens\u00e9e pour tourner sur des PC grand public sans mat\u00e9riel sp\u00e9cialis\u00e9.<\/li>\n\n\n\n<li><strong>E4B<\/strong> : <em>Effective 4 Billion<\/em> \u2014 environ 4 milliards de param\u00e8tres, un petit mod\u00e8le pens\u00e9 pour smartphones et PC.<\/li>\n\n\n\n<li><strong>Format GGUF<\/strong> : fichier unique pr\u00eat \u00e0 l\u2019emploi, d\u00e9j\u00e0 quantis\u00e9, reconnu par tous les grands front-ends (LM Studio, Ollama, GPT4All, etc.).<\/li>\n\n\n\n<li><strong>Equilibre poids\/performance optimal<\/strong> : environ 4 milliards de param\u00e8tres (<em>E4B<\/em>) suffisent pour obtenir un <strong>score autour de 1300 sur Arena<\/strong> (<a href=\"https:\/\/arena.ai\/leaderboard\">https:\/\/arena.ai\/leaderboard<\/a>) \u2013 contre ~1500 pour les tout derniers mod\u00e8les cloud.<\/li>\n\n\n\n<li><strong>Optimis\u00e9 Apple Silicon <\/strong>: fonctionne efficacement sur les puces M1 \u00e0 M5.<\/li>\n\n\n\n<li>D\u00e9tails officiels : <a class=\"\" href=\"https:\/\/deepmind.google\/models\/gemma\/gemma-3n\/\">https:\/\/deepmind.google\/models\/gemma\/gemma-3n\/<\/a><\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">Alternatives possibles<\/h3>\n\n\n\n<p>Parmi les alternatives possibles figurent Ollama et GPT4All. Pour ceux qui d\u00e9butent avec l\u2019IA locale, LM Studio demeure l\u2019option la plus accessible. D\u2019autres mod\u00e8les open source peuvent aussi \u00eatre trouv\u00e9s sur <a href=\"https:\/\/huggingface.co\">Hugging Face<\/a>. Sur machines disposant de 32 Go de RAM ou plus, gpt-oss-20b (OpenAI) est envisageable. \u00c0 16 Go, gemma-3n-E4B reste le meilleur choix : m\u00eame gemma-3-12b-it (le concurrent le plus proche avec un score Arena ~1330) ne parvient pas \u00e0 se charger en conditions normales d&rsquo;utilisation.<\/p>\n\n\n\n<p>Le Centre informatique peut \u00e9galement mettre \u00e0 disposition des mod\u00e8les locaux sur ses propres infrastructures, offrant une alternative aux installations sur poste personnel.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Les IA locales sont de plus en plus  performantes, attractives et \u00e0 la consommation \u00e9nerg\u00e9tique r\u00e9duite face aux LLM commerciaux  tout en gardant vos donn\u00e9es sur votre ordinateur.<\/p>\n","protected":false},"author":1002618,"featured_media":2210,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"","_seopress_robots_index":"","footnotes":""},"categories":[10],"tags":[],"class_list":{"0":"post-2191","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ressources"},"_links":{"self":[{"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/posts\/2191","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/users\/1002618"}],"replies":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/comments?post=2191"}],"version-history":[{"count":4,"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/posts\/2191\/revisions"}],"predecessor-version":[{"id":3586,"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/posts\/2191\/revisions\/3586"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/media\/2210"}],"wp:attachment":[{"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/media?parent=2191"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/categories?post=2191"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/wp.unil.ch\/iaunil\/wp-json\/wp\/v2\/tags?post=2191"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}