Le jailbreak en vers : comment la poésie délie la langue de l’IA
Des chercheurs ont découvert que le fait de formuler des invites sous forme de poésie peut considérablement nuire à l’efficacité des garde-fous de sécurité des modèles de langage.
3 articles
Des chercheurs ont découvert que le fait de formuler des invites sous forme de poésie peut considérablement nuire à l’efficacité des garde-fous de sécurité des modèles de langage.
L’attaque Whisper Leak permet à son auteur de découvrir le sujet de votre conversation avec un assistant IA, sans pour autant déchiffrer le trafic. Nous analysons les mécanismes en jeu et les mesures que vous pouvez prendre pour sécuriser vos chats avec l’IA.
Comment les pirates informatiques exploitent-ils les fonctionnalités des chatbots pour reconstituer les discussions chiffrées provenant de ChatGPT (OpenAI), de Copilot (Microsoft) et de la plupart des autres chatbots d’IA ?