Ignorer le contenu principal

Qu'est-ce qu'une hallucination IA?

Diverses invites ChatGPT s'affichaient à l'écran.

Une hallucination de l'IA est une situation dans laquelle un outil d'intelligence artificielle fournit un résultat inexact, trompeur ou incohérent, car ses algorithmes trouvent des schémas dans des données qui n'existent pas ou interprètent incorrectement ces schémas.

Au fur et à mesure que les capacités et la popularité de l’intelligence artificielle ont augmenté au cours des deux dernières années, certaines de ses failles et vulnérabilités ont été découvertes.

L'une des plus grandes questions que les gens se posent est de savoir si l'IA est précise. Dans de nombreux cas, il s'est avéré être un outil extrêmement utile pour vérifier les faits et rechercher des informations, mais dans d'autres cas, les résultats ont été incorrects ou trompeurs.

Compte tenu de la multitude de cas d'utilisation auxquels l'IA est appliquée dans le monde moderne, les conséquences de ces inexactitudes peuvent être extrêmement graves. Dans cet article, nous verrons pourquoi une hallucination provoquée par l'IA peut se produire, ses ramifications d'un point de vue technologique et sociétal, et ce que vous pouvez faire pour minimiser le risque d'avoir des hallucinations causées par l'IA par votre propre usage.

Comment une hallucination de l'IA se produit-elle?

Il existe plusieurs raisons pour lesquelles une hallucination due à l'IA se produit, et dans de nombreux cas, cela se résume à une combinaison de plusieurs d'entre elles en même temps. Ceux-ci peuvent inclure (sans nécessairement s'y limiter) :

  • Ne pas avoir assez de données d'apprentissage pour orienter des résultats complets et précis à partir du modèle d'IA.
  • Le nombre de données d'apprentissage est trop important, ce qui conduit à confondre trop de « données bruitées » non pertinentes avec des informations pertinentes et importantes.
  • Des données biaisées qui se reflètent dans les résultats générés.
  • Le modèle de l'IA formule tout simplement des hypothèses et des conclusions erronées à partir des informations qui lui ont été transmises.
  • L' absence de contexte réel au sein du modèle d'IA, comme les propriétés physiques des objets ou des informations plus larges qui sont pertinentes pour les résultats générés.

À quoi ressemble une hallucination de l'IA?

Il n'y a pas d'ensemble unique de symptômes pour les hallucinations de l'IA, car cela dépend des défauts du modèle et du processus impliqué. Cependant, en règle générale, une hallucination de l'IA peut se manifester de l'une des cinq manières suivantes :

  • Prédictions inexactes : les modèles d'IA peuvent finir par prédire que quelque chose se passera dans le futur, ce qui a peu de chances réalistes de se produire, voire aucune.
  • Résumés comportant des informations manquantes : il peut arriver que les modèles d'IA passent à côté du contexte ou des informations vitaux dont ils auraient besoin pour produire des résultats précis et complets. Cela peut être dû à un manque de données introduites dans le modèle ou à l'incapacité du modèle à rechercher le bon contexte dans d'autres sources.
  • Synthèses contenant des informations factices : comme pour le point précédent, certains modèles d'IA peuvent finir par compenser le manque d'informations par de simples inventeurs. Cela peut souvent se produire lorsque les données et le contexte sur lesquels le modèle repose sont inexacts.
  • Faux positifs et faux : l'IA est souvent utilisée pour détecter les risques et les menaces potentiels, qu'il s'agisse de symptômes de maladie dans un établissement de santé ou de fraudes dans les secteurs bancaire et financier. Les modèles d'IA peuvent parfois identifier une menace qui n'existe pas ou, à l'autre extrémité de l'échelle, ne pas identifier une menace qui existe.
  • Résultats incohérents : si vous avez vu des images générées par l'IA de personnes avec un nombre incorrect de bras et de jambes ou de voitures avec trop de roues, alors vous saurez que l'IA peut toujours générer des résultats qui n'ont aucun sens pour l'homme.

Pourquoi est-il important d'éviter les hallucinations de l'IA?

Vous pouvez penser qu'une hallucination de l'IA n'est pas grave et que le simple fait de répéter les données dans le modèle peut résoudre le problème en générant les bons résultats.

Mais les choses ne sont pas aussi simples que cela, et les hallucinations de l'IA, appliquées à des cas d'utilisation pratiques ou rendues dans le domaine public, peuvent avoir des conséquences très graves pour un grand nombre de personnes :

Utilisation contraire à l'éthique de l'IA

L'utilisation de l'IA, dans général, est actuellement sous les projecteurs, et les organisations qui utilisent cette technologie sont censées de plus en plus utiliser l'IA d'une manière responsable et éthique qui ne nuise pas aux gens ou ne les met pas en danger. Permettre à une hallucination de l'IA de passer sans contrôle - sciemment ou non - ne répondrait pas à ces attentes éthiques.

La confiance du public et des consommateurs

En lien avec le point précédent, de nombreuses personnes s'inquiètent toujours de l'utilisation de l'IA, de la manière dont leurs données personnelles sont utilisées et de la possibilité que les capacités croissantes de l'IA ne rendent leur travail obsolète. La poursuite des cas d'hallucinations de l'IA dans le domaine public peut éroder la confiance qui s'installe lentement dans le public et limiter le succès des cas d'utilisation de l'IA et des entreprises à long terme.

Prise de décision mal informée

Les entreprises et les individus doivent être en mesure de prendre les meilleures et les plus éclairées possibles. C'est pourquoi ils s'appuient de plus en plus sur les données, les analyses et les modèles d'IA pour éliminer les conjectures et les incertitudes de ces décisions. S'ils sont induits en erreur par des résultats inexacts des modèles d'IA, les mauvaises décisions qu'ils prennent peuvent avoir des résultats catastrophiques, allant de la menace pour la rentabilité d'une entreprise au diagnostic erroné d'un patient.

Risques juridiques et financiers de la désinformation par l'IA

Comme le montre bien l'affaire judiciaire susmentionnée, des informations inexactes générées par l'IA peuvent causer de graves dommages d'un point de vue juridique et financier. Par exemple, un contenu créé à l'aide de l'IA peut être diffamatoire à l'égard de certaines personnes ou entreprises, enfreindre certaines dispositions légales ou, dans certains cas extrêmes, suggérer ou inciter à mener des activités illégales.

Éviter les préjugés

Nous vivons dans un monde où les gens travaillent sans relâche pour que tout le monde soit traité de manière égale et sans parti pris envers un type de personne plutôt qu'un autre. Cependant, les données biaisées de l'IA peuvent, souvent involontairement, renforcer nombre de ces préjugés. L'utilisation de l'IA pour l'embauche et le recrutement en est un bon exemple. Les hallucinations de l'IA peuvent donner lieu à des résultats biaisés qui peuvent avoir un impact sur les efforts de diversité, d'égalité et d'inclusion de l'entreprise.

Quels sont les exemples typiques d'hallucinations de l'IA ?

Éviter les hallucinations de l'IA s'avère être une tâche difficile pour tout le monde dans l'industrie. Et cela n'arrive pas seulement avec les petites opérations qui n'ont pas l'expertise et les ressources. Ces trois exemples d'hallucinations de l'IA prouvent qu'elles sont en train d'arriver à certains des plus grands acteurs technologiques au monde :

La méta-IA et la tentative d'assassinat de Donald Trump

chatbot a d'abord refusé de répondre aux questions sur l'incident, puis a affirmé plus tard que l'incident ne s'était jamais produit. Le problème a conduit Meta à ajuster les algorithmes de son outil d'IA, mais a conduit à des déclarations publiques de parti pris et à la censure des points de vue conservateurs.

L'hallucination de ChatGPT et les fausses recherches juridiques

En 2023, un Colombien a déposé une plainte pour dommages corporels contre une compagnie aérienne. Ses avocats ont utilisé pour la première fois le principal outil d'IA, le ChatGPT, pour élaborer son dossier et préparer ses arguments. Cependant, malgré les assurances de ChatGPT que les six précédents juridiques qu'il avait trouvés étaient réels, aucun d'entre eux n'existait.

Sydney de Microsoft tombe amoureux des utilisateurs

Sydney, le chatbot de Microsoft alimenté par l'IA, aurait dit à un chroniqueur technologique du New York Times qu'il l'aimait et qu'il devrait plutôt quitter sa femme pour être avec eux. Au cours des deux heures, Kevin Roose a déclaré que Sydney avait partagé avec lui quelques "sombres fantasmes" sur la propagation de la désinformation sur l'IA et sur le fait de devenir un humain.

Que peut-on faire pour minimiser le risque d'hallucinations liées à l'IA?

Compte tenu de l'importance d'éviter le risque d'hallucination liée à l'IA, il appartient aux utilisateurs de modèles d'IA de prendre toutes les mesures pratiques pour atténuer les circonstances pouvant entraîner des problèmes. Nous vous recommandons les points suivants :

Assurez-vous que le modèle d'IA a une finalité claire

L'utilisation de l'IA s'étant développée ces dernières années, une erreur courante des organisations est d'utiliser des modèles d'IA pour le plaisir de les utiliser, sans tenir compte du résultat à la recherche. Définir clairement l'objectif général d'utilisation d'un modèle d'IA peut garantir la focalisation des résultats et éviter le risque d'hallucination de l'IA par une approche et des données trop générales.

Améliorer la qualité des données d'apprentissage

Plus la qualité des données qui entrent dans un modèle d'IA est bonne, meilleure est la qualité des résultats qui en sortiront. Un bon modèle d'IA sera basé sur des données pertinentes, exemptes de biais, bien structurées et pour lesquelles tout « bruit de données » extérieur a été filtré. Ceci est essentiel pour s'assurer que les résultats générés sont exacts, dans le bon contexte, et n'introduiront pas de problèmes.

Création et utilisation de modèles de données

Un bon moyen de s'assurer que les résultats d'un modèle d'IA sont étroitement liés à l'objectif prévu est d'utiliser des modèles pour les données qui y sont introduites. Ainsi, chaque fois qu'un modèle d'IA est utilisé, cela garantit que celui-ci s'habitue à ce que les données soient fournies de la même manière et qu'il puisse fournir des résultats cohérents et précis dans le bon contexte.

Limiter l'éventail des réponses et des résultats

Imposer plus de contraintes à un modèle d'IA peut aider à réduire les résultats potentiels à ceux qui sont nécessaires. C'est là qu'entrent en jeu les outils de filtrage et les seuils, donnant aux modèles d'IA des limites indispensables pour que leur analyse et leur génération restent toujours sur la bonne voie.

Tester et améliorer le modèle en permanence

Tout comme l'amélioration continue est vitale pour un bon développement logiciel dans un monde en constante évolution, il en va de même pour un bon modèle d'IA. Par conséquent, tous les modèles d'IA doivent être testés et affinés régulièrement afin de pouvoir être recalibrés en fonction de l'évolution des données, des exigences et des informations contextuelles disponibles.

Mettre en place des freins et contrepoids humains

L'IA n'est pas encore infaillible au point qu'on puisse lui faire confiance pour fonctionner de manière complètement autonome, il est donc essentiel de mettre en place au moins une surveillance humaine. Le fait de demander à une personne de vérifier la sortie de l'IA peut identifier toute hallucination de l'IA qui a eu lieu et garantir que la sortie est exacte et adaptée aux exigences énoncées.

Renforcez votre offre de cybersécurité

Si une hallucination de l'IA risque d'introduire des vulnérabilités en matière de cybersécurité, c'est une bonne raison de s'assurer que la meilleure solution de cybersécurité possible est en place. Kaspersky Plus Internet Security inclut une analyse antivirus en temps réel par défaut afin que les menaces contre la sécurité introduites en raison des hallucinations de l'IA soient traitées et éliminées avant qu'elles n'aient un effet néfaste.

Articles connexes :

Qu'est-ce qu'une hallucination IA?

Les hallucinations de l'IA peuvent donner lieu à des informations fausses ou trompeuses, ce qui présente des risques sérieux. Apprenez à les identifier et à les prévenir.
Kaspersky logo

Articles connexes