{"id":21528,"date":"2024-02-21T11:24:37","date_gmt":"2024-02-21T09:24:37","guid":{"rendered":"https:\/\/www.kaspersky.fr\/blog\/?p=21528"},"modified":"2024-02-21T11:24:37","modified_gmt":"2024-02-21T09:24:37","slug":"how-to-use-chatgpt-ai-assistants-securely-2024","status":"publish","type":"post","link":"https:\/\/www.kaspersky.fr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/21528\/","title":{"rendered":"Comment utiliser ChatGPT, Gemini et d&rsquo;autres IA en toute s\u00e9curit\u00e9"},"content":{"rendered":"<p>La croissance fulgurante des applications, services et modules d\u2019extension d\u2019IA observ\u00e9e depuis l\u2019ann\u00e9e derni\u00e8re semble vou\u00e9e \u00e0 s\u2019acc\u00e9l\u00e9rer. Qu\u2019il s\u2019agisse de suites bureautiques et d\u2019\u00e9diteurs d\u2019images ou d\u2019environnements de d\u00e9veloppement int\u00e9gr\u00e9 (IDE) comme Visual Studio, l\u2019IA est en train d\u2019\u00eatre int\u00e9gr\u00e9e aux outils courants et utilis\u00e9s depuis longtemps. De nombreux d\u00e9veloppeurs mettent actuellement au point des milliers de nouvelles applications qui font appel aux plus grands mod\u00e8les d\u2019IA. Cependant, dans cette course, personne n\u2019a encore \u00e9t\u00e9 en mesure de r\u00e9soudre les probl\u00e8mes de s\u00e9curit\u00e9 inh\u00e9rents \u00e0 l\u2019IA, en commen\u00e7ant par r\u00e9duire au maximum les fuites de donn\u00e9es confidentielles ainsi que le niveau de piratage des comptes et appareils au moyen de divers outils d\u2019IA, sans parler d\u2019instaurer des mesures de protection appropri\u00e9es contre une \u00ab\u00a0IA mal\u00e9fique\u00a0\u00bb du futur. En attendant que quelqu\u2019un d\u00e9veloppe une solution standard pour prot\u00e9ger les utilisateurs d\u2019assistants d\u2019IA, vous devrez acqu\u00e9rir quelques comp\u00e9tences pour vous prot\u00e9ger vous-m\u00eame.<\/p>\n<p>Alors, comment utiliser l\u2019IA sans avoir \u00e0 le regretter plus tard ?<\/p>\n<h2>Filtrer les donn\u00e9es importantes<\/h2>\n<p><a href=\"https:\/\/openai.com\/policies\/privacy-policy\" target=\"_blank\" rel=\"noopener nofollow\">La politique de confidentialit\u00e9 d\u2019OpenAI<\/a>, le d\u00e9veloppeur de ChatGPT, indique explicitement que toutes les discussions avec le chatbot sont enregistr\u00e9es et peuvent \u00eatre utilis\u00e9es \u00e0 diverses fins. Premi\u00e8rement, ces enregistrements servent \u00e0 r\u00e9soudre des probl\u00e8mes techniques et \u00e0 emp\u00eacher toute violation des conditions d\u2019utilisation, au cas o\u00f9 quelqu\u2019un aurait l\u2019id\u00e9e de g\u00e9n\u00e9rer un contenu inappropri\u00e9. Qui l\u2019e\u00fbt cru, n\u2019est-ce pas ? Dans ce cas, les chats peuvent m\u00eame \u00eatre v\u00e9rifi\u00e9s par un humain. Deuxi\u00e8mement, les donn\u00e9es peuvent \u00eatre utilis\u00e9es pour d\u00e9velopper de nouvelles versions du GPT et pour apporter des \u00ab\u00a0am\u00e9liorations\u00a0\u00bb \u00e0 d\u2019autres produits.<\/p>\n<p>La plupart des autres mod\u00e8les de langage populaires, qu\u2019il s\u2019agisse de Gemini de Google, de Claude d\u2019Anthropic, ou de Bing et Copilot de Microsoft, ont des politiques similaires : ils peuvent tous enregistrer les discussions dans leur int\u00e9gralit\u00e9.<\/p>\n<p>Cela \u00e9tant dit, des fuites de chats involontaires <a href=\"https:\/\/www.bbc.com\/news\/technology-65047304\" target=\"_blank\" rel=\"noopener nofollow\">ont d\u00e9j\u00e0 eu lieu<\/a> \u00e0 cause de bugs de logiciels, des utilisateurs voyant les discussions d\u2019autres personnes au lieu des leurs. L\u2019utilisation de ces donn\u00e9es \u00e0 des fins de d\u00e9veloppement peut \u00e9galement entra\u00eener une <a href=\"https:\/\/www.zdnet.com\/article\/chatgpt-can-leak-source-data-violate-privacy-says-googles-deepmind\/\" target=\"_blank\" rel=\"noopener nofollow\">fuite de donn\u00e9es provenant d\u2019un mod\u00e8le pr\u00e9con\u00e7u<\/a>\u00a0: l\u2019assistant d\u2019IA peut communiquer vos informations \u00e0 quelqu\u2019un d\u2019autre s\u2019il estime qu\u2019elles sont pertinentes pour r\u00e9pondre \u00e0 sa demande. Des experts en s\u00e9curit\u00e9 informatique ont m\u00eame d\u00e9j\u00e0 mis au point plusieurs cyberattaques (<a href=\"https:\/\/www.bleepingcomputer.com\/news\/security\/openai-rolls-out-imperfect-fix-for-chatgpt-data-leak-flaw\/\" target=\"_blank\" rel=\"noopener nofollow\">une<\/a>, <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-data-exfiltration\/\" target=\"_blank\" rel=\"noopener nofollow\">deux<\/a>, <a href=\"https:\/\/promptarmor.substack.com\/p\/data-exfiltration-from-writercom\" target=\"_blank\" rel=\"noopener nofollow\">trois<\/a>) visant \u00e0 voler des discussions, et il est peu probable qu\u2019ils s\u2019arr\u00eatent l\u00e0.<\/p>\n<p>Ne l\u2019oubliez donc pas : tout ce que vous \u00e9crivez \u00e0 un chatbot peut \u00eatre utilis\u00e9 contre vous. Nous vous recommandons de prendre des pr\u00e9cautions lorsque vous parlez \u00e0 une IA.<\/p>\n<p><strong>Ne communiquez pas de donn\u00e9es personnelles \u00e0 un chatbot. <\/strong>Aucun mot de passe, num\u00e9ro de passeport ou num\u00e9ro de carte bancaire, aucune adresse, aucun num\u00e9ro de t\u00e9l\u00e9phone ou nom ou aucune autre donn\u00e9e personnelle vous appartenant ou appartenant \u00e0 votre entreprise ou \u00e0 vos clients ne doit se retrouver dans des discussions avec une IA. Vous pouvez les remplacer par des ast\u00e9risques ou par le mot \u00ab\u00a0CENSUR\u00c9\u00a0\u00bb dans votre demande.<\/p>\n<p><strong>Ne chargez aucun document. <\/strong>De nombreux modules d\u2019extension et modules compl\u00e9mentaires vous permettent d\u2019utiliser des chatbots pour traiter des documents. La tentation de charger un document de travail pour, par exemple, en obtenir un r\u00e9sum\u00e9 analytique, peut \u00eatre grande. Cependant, en chargeant sans pr\u00e9caution un document de plusieurs pages, vous risquez de <a href=\"https:\/\/mashable.com\/article\/samsung-chatgpt-leak-details\" target=\"_blank\" rel=\"noopener nofollow\">divulguer des donn\u00e9es confidentielles<\/a>, des droits de propri\u00e9t\u00e9 intellectuelle, ou un secret commercial comme la date de sortie d\u2019un nouveau produit ou la r\u00e9mun\u00e9ration de toute une \u00e9quipe. Ou, pire encore, lorsque vous traitez des documents provenant de sources externes, vous risquez d\u2019\u00eatre la <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-docs-ai-scam\/\" target=\"_blank\" rel=\"noopener nofollow\">cible d\u2019une cyberattaque<\/a> qui compte sur l\u2019analyse de ces documents par un mod\u00e8le de langage.<\/p>\n<p><strong>Utilisez les param\u00e8tres de confidentialit\u00e9.<\/strong> Examinez attentivement la politique de confidentialit\u00e9 du fournisseur de votre grand mod\u00e8le de langage (LLM) et les param\u00e8tres disponibles\u00a0: ils peuvent normalement \u00eatre utilis\u00e9s pour minimiser le tra\u00e7age. Par exemple, les produits d\u2019OpenAI vous permettent de d\u00e9sactiver l\u2019enregistrement de l\u2019historique des discussions. Dans ce cas, les donn\u00e9es seront supprim\u00e9es au bout de 30 jours et ne seront jamais utilis\u00e9es \u00e0 des fins de d\u00e9veloppement. Si vous utilisez une API, des applications tierces ou d\u2019autres services pour acc\u00e9der aux solutions d\u2019OpenAI, ce param\u00e8tre est activ\u00e9 par d\u00e9faut.<\/p>\n<p><strong>Vous envoyez du code\u00a0? Supprimez toute donn\u00e9e confidentielle.<\/strong> Ce conseil s\u2019adresse aux ing\u00e9nieurs logiciels qui utilisent les assistants d\u2019IA pour analyser et am\u00e9liorer leur code : supprimez les cl\u00e9s d\u2019API, les adresses de serveurs, ou toute autre information susceptible de r\u00e9v\u00e9ler la structure d\u2019une application ou la configuration d\u2019un serveur.<\/p>\n<h2>Limiter l\u2019utilisation d\u2019applications et de modules d\u2019extension tiers<\/h2>\n<p>Suivez toujours les conseils ci-dessus, quel que soit l\u2019assistant d\u2019IA populaire que vous utilisez. Cependant, il se peut que toutes ces pr\u00e9cautions ne soient pas suffisantes pour garantir la confidentialit\u00e9. L\u2019utilisation de modules d\u2019extension pour ChatGPT, d\u2019extensions pour Gemini ou d\u2019applications compl\u00e9mentaires distinctes donne lieu \u00e0 de nouveaux types de menaces.<\/p>\n<p>Premi\u00e8rement, l\u2019historique de vos discussions peut d\u00e9sormais \u00eatre stock\u00e9 non seulement sur les serveurs de Google ou d\u2019OpenAI, mais \u00e9galement sur les serveurs du logiciel tiers qui prend en charge le module d\u2019extension ou le module compl\u00e9mentaire, ainsi que dans des recoins insoup\u00e7onn\u00e9s de votre ordinateur ou de votre smartphone.<\/p>\n<p>Deuxi\u00e8mement, la plupart des modules d\u2019extension tirent leurs informations de sources externes\u00a0: recherches sur le web, bo\u00eete de r\u00e9ception Gmail, ou notes personnelles provenant de services comme Notion, Jupyter ou Evernote. Par cons\u00e9quent, les donn\u00e9es qui vous concernent provenant de ces services peuvent \u00e9galement se retrouver sur les serveurs sur lesquels le module d\u2019extension ou le mod\u00e8le de langage proprement dit est ex\u00e9cut\u00e9. Une telle int\u00e9gration peut comporter des risques non n\u00e9gligeables\u00a0: prenons, par exemple, cette <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">cyberattaque qui permet de cr\u00e9er de nouveaux stockages GitHub pour le compte de l\u2019utilisateur<\/a>.<\/p>\n<p>Troisi\u00e8mement, la publication et la v\u00e9rification des modules d\u2019extension pour les assistants d\u2019IA font actuellement l\u2019objet d\u2019un processus beaucoup moins rigoureux que la s\u00e9lection des applications pr\u00e9sentes dans l\u2019App Store ou le Google Play Store, par exemple. Par cons\u00e9quent, le risque de tomber sur un module d\u2019extension qui fonctionne mal, qui est mal cod\u00e9, qui pr\u00e9sente des bugs ou qui s\u2019av\u00e8re tout simplement malveillant est assez \u00e9lev\u00e9, d\u2019autant plus que <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">personne ne semble r\u00e9ellement v\u00e9rifier<\/a> les cr\u00e9ateurs ou leurs contacts.<\/p>\n<p>Comment r\u00e9duire ce risque ? Notre principal conseil est de laisser passer un peu de temps. L\u2019\u00e9cosyst\u00e8me des modules d\u2019extension est trop jeune, les processus de publication et d\u2019assistance ne sont pas suffisamment fluides, et les cr\u00e9ateurs eux-m\u00eames ne prennent pas toujours soin de concevoir correctement les modules d\u2019extension ou de respecter les exigences en mati\u00e8re de s\u00e9curit\u00e9 informatique. Tout cet \u00e9cosyst\u00e8me a besoin de plus de temps pour m\u00fbrir et devenir plus s\u00fbr et plus fiable.<\/p>\n<p>De plus, la valeur ajout\u00e9e de nombreux modules d\u2019extension et modules compl\u00e9mentaires int\u00e9gr\u00e9s \u00e0 la version standard de ChatGPT est minime : il est surtout question de modifications mineures de l\u2019interface utilisateur et des mod\u00e8les \u00ab\u00a0d\u2019invite syst\u00e8me\u00a0\u00bb qui personnalisent l\u2019assistant pour une t\u00e2che sp\u00e9cifique (par exemple, \u00ab\u00a0Agir comme un professeur de physique de lyc\u00e9e\u2026\u00a0\u00bb). Confier vos donn\u00e9es \u00e0 ces wrappers n\u2019en vaut certainement pas la peine, car vous pouvez tr\u00e8s bien accomplir votre t\u00e2che sans les utiliser.<\/p>\n<p>Si vous avez imp\u00e9rativement besoin de certaines fonctionnalit\u00e9s d\u2019un module d\u2019extension, essayez de prendre le maximum de pr\u00e9cautions avant de les utiliser.<\/p>\n<ul>\n<li>Choisissez des extensions et des modules compl\u00e9mentaires qui existent depuis au moins plusieurs mois et qui sont r\u00e9guli\u00e8rement mis \u00e0 jour.<\/li>\n<li>Ne tenez compte que des modules d\u2019extension qui enregistrent un grand nombre de t\u00e9l\u00e9chargements et lisez attentivement les avis pour d\u00e9celer d\u2019\u00e9ventuels probl\u00e8mes.<\/li>\n<li>Si le module d\u2019extension est accompagn\u00e9 d\u2019une politique de confidentialit\u00e9, lisez-la attentivement <strong>avant<\/strong> de commencer \u00e0 utiliser l\u2019extension.<\/li>\n<li>Optez pour des outils open source.<\/li>\n<li>Si vous poss\u00e9dez ne serait-ce que des comp\u00e9tences rudimentaires en mati\u00e8re de codage, ou si vous avez des amis codeurs, parcourez le code pour vous assurer qu\u2019il n\u2019envoie les donn\u00e9es qu\u2019aux serveurs d\u00e9clar\u00e9s et, id\u00e9alement, aux serveurs du mod\u00e8le d\u2019IA uniquement.<\/li>\n<\/ul>\n<h2>Les modules d\u2019ex\u00e9cution requi\u00e8rent une surveillance particuli\u00e8re<\/h2>\n<p>Jusqu\u2019\u00e0 pr\u00e9sent, nous avons parl\u00e9 des risques li\u00e9s aux fuites de donn\u00e9es ; mais il ne s\u2019agit pas du seul probl\u00e8me que vous pouvez rencontrer en utilisant une IA. De nombreux modules d\u2019extension sont capables d\u2019ex\u00e9cuter des actions particuli\u00e8res \u00e0 la demande de l\u2019utilisateur, comme r\u00e9server des billets d\u2019avion. Ces outils offrent aux op\u00e9rateurs malveillants un nouveau vecteur de cyberattaque\u00a0: la victime se voit pr\u00e9senter un document, une page Internet, une vid\u00e9o ou m\u00eame une image qui contient, en plus du contenu principal, des instructions cach\u00e9es destin\u00e9es au mod\u00e8le de langage. Si la victime envoie le document ou le lien \u00e0 un chatbot, ce dernier ex\u00e9cutera les instructions malveillantes, par exemple en achetant des billets avec l\u2019argent de la victime. Ce type de cyberattaque est appel\u00e9 <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-image-to-prompt-injection\/\" target=\"_blank\" rel=\"noopener nofollow\">prompt injection<\/a> (ou \u00ab\u00a0injection d\u2019invite\u00a0\u00bb), et bien que les d\u00e9veloppeurs de divers grands mod\u00e8les de langage (LLM) tentent de mettre au point des mesures de protection contre cette menace, personne n\u2019y est encore parvenu (et n\u2019y parviendra peut-\u00eatre jamais).<\/p>\n<p>Heureusement, la plupart des actions importantes, en particulier celles qui impliquent des op\u00e9rations de paiement comme l\u2019achat de billets, n\u00e9cessitent une double confirmation. Cependant, les interactions entre les mod\u00e8les de langage et les modules d\u2019extension repr\u00e9sentent une <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/attack-surface\/\" target=\"_blank\" rel=\"noopener\">surface d\u2019attaque<\/a> si importante qu\u2019il est difficile de garantir des r\u00e9sultats probants issus de ces mesures.<\/p>\n<p>Par cons\u00e9quent, il convient d\u2019\u00eatre tr\u00e8s rigoureux lorsque vous s\u00e9lectionnez des outils d\u2019IA, et de vous assurer que ces derniers ne re\u00e7oivent que des donn\u00e9es fiables \u00e0 des fins de traitement.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-geek\">\n","protected":false},"excerpt":{"rendered":"<p>Les outils d&rsquo;IA sont pr\u00e9sents partout, aussi bien dans les syst\u00e8mes d&rsquo;exploitation et les suites bureautiques que dans les \u00e9diteurs d&rsquo;images et les chats. Comment utiliser ChatGPT, Gemini et leurs nombreux modules compl\u00e9mentaires sans compromettre votre s\u00e9curit\u00e9 num\u00e9rique ?<\/p>\n","protected":false},"author":2722,"featured_media":21529,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[9],"tags":[4355,1826,4350,4453,3383,4357,61],"class_list":{"0":"post-21528","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-ai","9":"tag-chatbots","10":"tag-chatgpt","11":"tag-gemini","12":"tag-ia","13":"tag-machine-learning","14":"tag-securite"},"hreflang":[{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/21528\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27067\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22377\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/11413\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29733\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27243\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27034\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29651\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/28531\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/36962\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/12053\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/50562\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22239\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/30940\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/how-to-use-chatgpt-ai-assistants-securely-2024\/27442\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/33249\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/32873\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.fr\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/21528","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/comments?post=21528"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/21528\/revisions"}],"predecessor-version":[{"id":21531,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/21528\/revisions\/21531"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/media\/21529"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/media?parent=21528"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/categories?post=21528"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/tags?post=21528"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}