Comment utiliser ChatGPT, Gemini et d’autres IA en toute sécurité

Les outils d’IA sont présents partout, aussi bien dans les systèmes d’exploitation et les suites bureautiques que dans les éditeurs d’images et les chats. Comment utiliser ChatGPT, Gemini et leurs nombreux modules complémentaires sans compromettre votre sécurité numérique ?

La croissance fulgurante des applications, services et modules d’extension d’IA observée depuis l’année dernière semble vouée à s’accélérer. Qu’il s’agisse de suites bureautiques et d’éditeurs d’images ou d’environnements de développement intégré (IDE) comme Visual Studio, l’IA est en train d’être intégrée aux outils courants et utilisés depuis longtemps. De nombreux développeurs mettent actuellement au point des milliers de nouvelles applications qui font appel aux plus grands modèles d’IA. Cependant, dans cette course, personne n’a encore été en mesure de résoudre les problèmes de sécurité inhérents à l’IA, en commençant par réduire au maximum les fuites de données confidentielles ainsi que le niveau de piratage des comptes et appareils au moyen de divers outils d’IA, sans parler d’instaurer des mesures de protection appropriées contre une « IA maléfique » du futur. En attendant que quelqu’un développe une solution standard pour protéger les utilisateurs d’assistants d’IA, vous devrez acquérir quelques compétences pour vous protéger vous-même.

Alors, comment utiliser l’IA sans avoir à le regretter plus tard ?

Filtrer les données importantes

La politique de confidentialité d’OpenAI, le développeur de ChatGPT, indique explicitement que toutes les discussions avec le chatbot sont enregistrées et peuvent être utilisées à diverses fins. Premièrement, ces enregistrements servent à résoudre des problèmes techniques et à empêcher toute violation des conditions d’utilisation, au cas où quelqu’un aurait l’idée de générer un contenu inapproprié. Qui l’eût cru, n’est-ce pas ? Dans ce cas, les chats peuvent même être vérifiés par un humain. Deuxièmement, les données peuvent être utilisées pour développer de nouvelles versions du GPT et pour apporter des « améliorations » à d’autres produits.

La plupart des autres modèles de langage populaires, qu’il s’agisse de Gemini de Google, de Claude d’Anthropic, ou de Bing et Copilot de Microsoft, ont des politiques similaires : ils peuvent tous enregistrer les discussions dans leur intégralité.

Cela étant dit, des fuites de chats involontaires ont déjà eu lieu à cause de bugs de logiciels, des utilisateurs voyant les discussions d’autres personnes au lieu des leurs. L’utilisation de ces données à des fins de développement peut également entraîner une fuite de données provenant d’un modèle préconçu : l’assistant d’IA peut communiquer vos informations à quelqu’un d’autre s’il estime qu’elles sont pertinentes pour répondre à sa demande. Des experts en sécurité informatique ont même déjà mis au point plusieurs cyberattaques (une, deux, trois) visant à voler des discussions, et il est peu probable qu’ils s’arrêtent là.

Ne l’oubliez donc pas : tout ce que vous écrivez à un chatbot peut être utilisé contre vous. Nous vous recommandons de prendre des précautions lorsque vous parlez à une IA.

Ne communiquez pas de données personnelles à un chatbot. Aucun mot de passe, numéro de passeport ou numéro de carte bancaire, aucune adresse, aucun numéro de téléphone ou nom ou aucune autre donnée personnelle vous appartenant ou appartenant à votre entreprise ou à vos clients ne doit se retrouver dans des discussions avec une IA. Vous pouvez les remplacer par des astérisques ou par le mot « CENSURÉ » dans votre demande.

Ne chargez aucun document. De nombreux modules d’extension et modules complémentaires vous permettent d’utiliser des chatbots pour traiter des documents. La tentation de charger un document de travail pour, par exemple, en obtenir un résumé analytique, peut être grande. Cependant, en chargeant sans précaution un document de plusieurs pages, vous risquez de divulguer des données confidentielles, des droits de propriété intellectuelle, ou un secret commercial comme la date de sortie d’un nouveau produit ou la rémunération de toute une équipe. Ou, pire encore, lorsque vous traitez des documents provenant de sources externes, vous risquez d’être la cible d’une cyberattaque qui compte sur l’analyse de ces documents par un modèle de langage.

Utilisez les paramètres de confidentialité. Examinez attentivement la politique de confidentialité du fournisseur de votre grand modèle de langage (LLM) et les paramètres disponibles : ils peuvent normalement être utilisés pour minimiser le traçage. Par exemple, les produits d’OpenAI vous permettent de désactiver l’enregistrement de l’historique des discussions. Dans ce cas, les données seront supprimées au bout de 30 jours et ne seront jamais utilisées à des fins de développement. Si vous utilisez une API, des applications tierces ou d’autres services pour accéder aux solutions d’OpenAI, ce paramètre est activé par défaut.

Vous envoyez du code ? Supprimez toute donnée confidentielle. Ce conseil s’adresse aux ingénieurs logiciels qui utilisent les assistants d’IA pour analyser et améliorer leur code : supprimez les clés d’API, les adresses de serveurs, ou toute autre information susceptible de révéler la structure d’une application ou la configuration d’un serveur.

Limiter l’utilisation d’applications et de modules d’extension tiers

Suivez toujours les conseils ci-dessus, quel que soit l’assistant d’IA populaire que vous utilisez. Cependant, il se peut que toutes ces précautions ne soient pas suffisantes pour garantir la confidentialité. L’utilisation de modules d’extension pour ChatGPT, d’extensions pour Gemini ou d’applications complémentaires distinctes donne lieu à de nouveaux types de menaces.

Premièrement, l’historique de vos discussions peut désormais être stocké non seulement sur les serveurs de Google ou d’OpenAI, mais également sur les serveurs du logiciel tiers qui prend en charge le module d’extension ou le module complémentaire, ainsi que dans des recoins insoupçonnés de votre ordinateur ou de votre smartphone.

Deuxièmement, la plupart des modules d’extension tirent leurs informations de sources externes : recherches sur le web, boîte de réception Gmail, ou notes personnelles provenant de services comme Notion, Jupyter ou Evernote. Par conséquent, les données qui vous concernent provenant de ces services peuvent également se retrouver sur les serveurs sur lesquels le module d’extension ou le modèle de langage proprement dit est exécuté. Une telle intégration peut comporter des risques non négligeables : prenons, par exemple, cette cyberattaque qui permet de créer de nouveaux stockages GitHub pour le compte de l’utilisateur.

Troisièmement, la publication et la vérification des modules d’extension pour les assistants d’IA font actuellement l’objet d’un processus beaucoup moins rigoureux que la sélection des applications présentes dans l’App Store ou le Google Play Store, par exemple. Par conséquent, le risque de tomber sur un module d’extension qui fonctionne mal, qui est mal codé, qui présente des bugs ou qui s’avère tout simplement malveillant est assez élevé, d’autant plus que personne ne semble réellement vérifier les créateurs ou leurs contacts.

Comment réduire ce risque ? Notre principal conseil est de laisser passer un peu de temps. L’écosystème des modules d’extension est trop jeune, les processus de publication et d’assistance ne sont pas suffisamment fluides, et les créateurs eux-mêmes ne prennent pas toujours soin de concevoir correctement les modules d’extension ou de respecter les exigences en matière de sécurité informatique. Tout cet écosystème a besoin de plus de temps pour mûrir et devenir plus sûr et plus fiable.

De plus, la valeur ajoutée de nombreux modules d’extension et modules complémentaires intégrés à la version standard de ChatGPT est minime : il est surtout question de modifications mineures de l’interface utilisateur et des modèles « d’invite système » qui personnalisent l’assistant pour une tâche spécifique (par exemple, « Agir comme un professeur de physique de lycée… »). Confier vos données à ces wrappers n’en vaut certainement pas la peine, car vous pouvez très bien accomplir votre tâche sans les utiliser.

Si vous avez impérativement besoin de certaines fonctionnalités d’un module d’extension, essayez de prendre le maximum de précautions avant de les utiliser.

  • Choisissez des extensions et des modules complémentaires qui existent depuis au moins plusieurs mois et qui sont régulièrement mis à jour.
  • Ne tenez compte que des modules d’extension qui enregistrent un grand nombre de téléchargements et lisez attentivement les avis pour déceler d’éventuels problèmes.
  • Si le module d’extension est accompagné d’une politique de confidentialité, lisez-la attentivement avant de commencer à utiliser l’extension.
  • Optez pour des outils open source.
  • Si vous possédez ne serait-ce que des compétences rudimentaires en matière de codage, ou si vous avez des amis codeurs, parcourez le code pour vous assurer qu’il n’envoie les données qu’aux serveurs déclarés et, idéalement, aux serveurs du modèle d’IA uniquement.

Les modules d’exécution requièrent une surveillance particulière

Jusqu’à présent, nous avons parlé des risques liés aux fuites de données ; mais il ne s’agit pas du seul problème que vous pouvez rencontrer en utilisant une IA. De nombreux modules d’extension sont capables d’exécuter des actions particulières à la demande de l’utilisateur, comme réserver des billets d’avion. Ces outils offrent aux opérateurs malveillants un nouveau vecteur de cyberattaque : la victime se voit présenter un document, une page Internet, une vidéo ou même une image qui contient, en plus du contenu principal, des instructions cachées destinées au modèle de langage. Si la victime envoie le document ou le lien à un chatbot, ce dernier exécutera les instructions malveillantes, par exemple en achetant des billets avec l’argent de la victime. Ce type de cyberattaque est appelé prompt injection (ou « injection d’invite »), et bien que les développeurs de divers grands modèles de langage (LLM) tentent de mettre au point des mesures de protection contre cette menace, personne n’y est encore parvenu (et n’y parviendra peut-être jamais).

Heureusement, la plupart des actions importantes, en particulier celles qui impliquent des opérations de paiement comme l’achat de billets, nécessitent une double confirmation. Cependant, les interactions entre les modèles de langage et les modules d’extension représentent une surface d’attaque si importante qu’il est difficile de garantir des résultats probants issus de ces mesures.

Par conséquent, il convient d’être très rigoureux lorsque vous sélectionnez des outils d’IA, et de vous assurer que ces derniers ne reçoivent que des données fiables à des fins de traitement.

Conseils