Comment aborder l’intelligence artificielle

Il est évident que l’IA doit être réglementée, mais comment ? Dans cet article, Eugene Kaspersky partage son point de vue.

Je suis un peu las de voir tous ces articles sur l’IA, mais j’imagine que je vais devoir supporter cette situation un peu plus longtemps, puisqu’il est évident qu’on va encore en parler sans arrêt pendant au moins un ou deux ans. Évidemment, cela ne signifie pas que l’IA ne va plus se développer. C’est juste que les journalistes, les blogueurs, les utilisateurs de TikTok et de Twitter, et tous les commentateurs en auront assez de parler de ce sujet. Pour le moment, les géants du Web et les gouvernements alimentent leur zèle : le Royaume-Uni envisage d’introduire une réglementation en trois axes sur l’IA ; la Chine a élaboré un brouillon de la loi sur l’IA pour un débat public ; les États-Unis réclament une régulation des algorithmes ; l’Union européenne débat des brouillons de lois sur l’IA mais n’a encore rien adopté, et ainsi de suite. Il y a beaucoup de projets pour l’avenir mais, pour le moment, la création et l’utilisation des systèmes d’IA n’ont pas été limités d’une manière ou d’une autre. Pourtant, on dirait que cette situation va bientôt changer.

La question suivante est indéniablement sujette à débat : avons-nous vraiment besoin d’une réglementation gouvernementale de l’IA ? Si oui, pourquoi et à quoi devrait-elle ressembler ?

Qu’est-ce qu’il faut réglementer ?

Qu’est-ce que l’intelligence artificielle ? (Malheureusement) grâce aux services marketing le terme est utilisé pour beaucoup de choses, qu’il s’agisse de modèles génératifs de pointe comme GPT-4 ou de systèmes plus simples d’apprentissage automatique, dont certains qui existent depuis des dizaines d’années. Vous vous souvenez de la saisie T9 avec les touches de votre téléphone portable ? Vous avez déjà entendu parler de la classification automatique des spams et des fichiers malveillants ? Est-ce vous regardez les films que Netflix vous conseille ? Toutes ces technologies familières reposent sur des algorithmes d’apprentissage automatique, autrement dit l' »IA ».

Kaspersky utilise ces technologies dans ces produits depuis près de 20 ans, et nous avons toujours préféré en parler de façon modeste et utiliser l’expression « apprentissage automatique » ; ne serait-ce que parce que quand les gens entendent parler d’ « intelligence artificielle » la plupart s’imagine un supercalculateur qui parle, comme dans un certain vaisseau spatial, ou toute autre invention que l’on voit dans les films de science-fiction. Pourtant, ces ordinateurs et droïdes qui parlent et qui pensent doivent être pleinement capables de penser comme un être humain, pour commander l’intelligence artificielle générale (AGI) ou la superintelligence artificielle (ASI), même si aucune des deux n’a été inventée pour le moment et ne le sera guère dans un avenir proche.

Quoi qu’il en soit, si tous les types d’IA sont évalués selon les mêmes critères et entièrement réglementés, toute l’industrie informatique et bien d’autres secteurs associés ne vont pas faire leurs adieux. Par exemple, si nous (Kaspersky) devions obtenir le consentement de tous les « auteurs » de notre set de formation, en tant qu’entreprise de sécurité informatique, nous nous retrouverions au pied du mur. Nous apprenons des programmes malveillants et des spams, et nous étendons les connaissances acquises à notre apprentissage automatique, alors que leurs auteurs préfèrent généralement ne pas divulguer leurs coordonnées (qui l’eût cru ?!). De plus, compte tenu du fait que les données ont été recueillies et que nos algorithmes sont entraînés depuis près de 20 ans maintenant, jusqu’à quand devrions-nous remonter dans le passé ?

Il est donc essentiel que les législateurs écoutent les spécialistes en marketing mais aussi les experts en apprentissage automatique / IA et abordent les éventuelles réglementations de façon spécifique et ciblée. Par exemple, ils pourraient utiliser les systèmes multifonctionnels entraînés à l’aide de gros volumes de données ouvertes, ou les systèmes de prise de décision à haute responsabilité et avec un niveau de risque élevé.

Toutes les réglementations de l’IA devront être régulièrement révisées lorsque de nouvelles applications de l’IA apparaîtront.

Pourquoi réglementer ?

Pour être honnête, je ne crois pas qu’il y aura un Jugement dernier assisté par une superintelligence dans les cent prochaines années. En revanche, je suis convaincu que l’utilisation irréfléchie de cette boîte noire informatique va nous donner du fil à retordre.

Pour rafraîchir la mémoire des personnes qui n’ont pas lu nos articles sur la splendeur et la détresse de l’apprentissage automatique, nous rencontrons principalement trois problèmes avec l’IA :

  • Nous ne pouvons pas dire avec certitude à quel point les données d’entraînement utilisées étaient / sont correctes.
  • Nous ne savons pas vraiment ce que l’IA a réussi à faire en « comprenant » toutes ces bases de données ni comment elle prend ses décisions.
  • Plus important encore, les développeurs et les utilisateurs peuvent en faire un mauvais usage.

Ainsi, tout pourrait arriver : un usage malveillant de l’IA ou un respect irréfléchi des décisions prises par l’IA. Voici quelques exemples explicites dans la vie réelle : des erreurs mortelles de pilotage automatique, des deepfakes (1, 2 et 3) que nous avons désormais l’habitude de voir dans les mèmes et actualités, une erreur stupide lors de l’embauche d’enseignants, la police qui interpelle le mauvais voleur à l’étalage et un outil de recrutement basé sur une IA misogyne. De plus, l’IA peut être attaquée à l’aide d’échantillons de données hostiles créés sur mesure : les véhicules peuvent être leurrés en utilisant des stickers, une personne peut extraire des données personnelles de GPT-3 et les antivirus et les solutions EDR peuvent être dupés. D’ailleurs, les attaques qui s’en prennent à l’IA des drones de combat et que l’on voyait dans les films de science-fiction ne semblent plus si improbables.

En résumé, l’utilisation de l’IA n’a pas encore provoqué de problèmes vraiment majeurs, mais il y a clairement un énorme potentiel. Ainsi, les priorités des réglementations doivent être claires :

  1. Éviter les incidents au sein d’infrastructures critiques (usines, bateaux, lignes électriques, centrales nucléaires).
  2. Minimiser les menaces physiques (véhicules sans conducteur, mauvais diagnostic de maladies).
  3. Minimiser les dommages personnels et les risques professionnels (interpellations ou embauches incorrectes, mauvais calculs de demandes / d’approvisionnement, etc.).

L’objectif des réglementations devrait être de contraindre les utilisateurs et les fabricants d’IA à faire attention à ne pas augmenter les risques mentionnés ci-dessus et qui pourraient se produire. Plus le risque est grave, plus il faut activement insister sur l’obligation.

Une autre inquiétude apparaît souvent lorsqu’il s’agit de l’IA : la nécessité de respecter les normes morales et éthiques, et de satisfaire un confort psychologique, si on peut dire. Pour ce faire, nous pouvons penser à des mises en garde pour que les utilisateurs sachent qu’il s’agit d’un objet qui n’existe pas (dessiné par l’IA) ou qu’ils communiquent avec un robot et non un être humain, ou encore à des avertissements qui informent que les droits d’auteur ont été respectés lors de l’entraînement de l’IA, etc. Pourquoi ? Pour que les législateurs et les fabricants d’IA ne soient pas attaqués par les foules en colère ! Certains pays s’en inquiètent vraiment ; souvenez-vous des manifestations contre Uber.

Comment réglementer ?

La façon la plus simple de réglementer l’IA serait de tout interdire, mais il semblerait que cette approche ne soit pas encore à l’ordre du jour. De toute façon, c’est tout aussi difficile d’interdire l’IA que tous les ordinateurs. Ainsi, toutes les tentatives de réglementations raisonnables devraient suivre le principe selon lequel « plus le risque est important, plus les exigences doivent être strictes ».

Les modèles d’apprentissage automatique utilisés pour des actions assez futiles, comme les recommandations d’achats, peuvent ne pas être réglementés mais plus le modèle est sophistiqué, ou plus le domaine d’application est sensible, plus les exigences doivent être drastiques pour les fabricants du système et les utilisateurs. Par exemple :

  • Soumettre un code de modèle ou un ensemble de données d’apprentissage pour que des législateurs ou des experts fassent une inspection.
  • Prouver la robustesse d’un ensemble de données d’apprentissage, dont les termes parti pris, biais, droit d’auteur, etc.
  • Démontrer que les résultats de l’IA sont raisonnables. Par exemple, qu’elle n’a pas d’hallucinations.
  • Étiqueter les opérations et les résultats de l’IA.
  • Mettre à jour un modèle et un ensemble de données d’apprentissage. Par exemple, exclure les personnes qui ont une certaine couleur de peau des données sources ou supprimer les formules de chimie qui servent à fabriquer des explosif pour qu’ils n’apparaissent pas dans les résultats.
  • Tester l’IA pour rechercher des « données hostiles » et mettre à jour son comportement, si nécessaire.
  • Contrôler qui utilise une IA en particulier et pourquoi. Refuser certaines utilisations spécifiques.
  • Limiter l’entraînement d’une vaste IA, ou une qui concerne un secteur en particulier, pour que ce ne soit possible qu’avec l’accord du législateur.
  • Prouver que l’utilisation de l’IA pour résoudre un problème spécifique est sans danger. Cette approche est très originale en informatique mais certains domaines qui considèrent que la sécurité est primordiale, comme les entreprises pharmaceutiques, les fabricants d’avions et bien d’autres, en ont l’habitude. Il y aura d’abord cinq ans de tests approfondis, puis l’autorisation du législateur et ce n’est qu’à ce moment-là que le produit pourra être disponible au grand public.

Cette dernière mesure semble trop stricte, mais vous changerez d’avis lorsque vous aurez entendu parler de certains incidents, comme une IA qui n’a pas donné la priorité aux patients qui attendaient de recevoir un traitement pour asthme aigu grave et pneumonie et a essayé de les renvoyer chez eux au lieu de les placer en soins intensifs.

Les mesures d’applications peuvent aller des amendes pour avoir enfreints les règles de l’IA (semblables aux sanctions européennes en cas de non-respect du RGPD) aux licences d’autorisation pour développer des activités en lien avec l’IA ou encore aux peines pénales pour avoir enfreint la loi (comme l’a proposé la Chine).

Est-ce vraiment la meilleure solution ?

Je vais maintenant vous donner mon avis personnel, mais n’oubliez pas qu’il repose sur 30 ans de recherche active pour un développement technologique avancé dans l’univers de la cybersécurité, de l’apprentissage automatique aux systèmes « secure-by-design » (sécurisés dès la conception).

Tout d’abord, nous avons vraiment besoin d’une réglementation. S’il n’y en a pas, l’IA finira par ressembler à un système routier sans règles de circulation. Ou, pour une comparaison plus pertinente, à la collecte des données personnelles en ligne comme au début des années 2000 lorsque n’importe qui pouvait garder toutes les informations trouvées. De plus, la réglementation promeut l’autodiscipline au sein des acteurs du marché.

Ensuite, nous devons maximiser l’harmonisation et la coopération internationales pour cette réglementation, comme c’est le cas avec les normes techniques des communications mobiles, Internet, etc. Ce souhait paraît utopique étant donné la réalité géopolitique actuelle, mais ça ne le rend pas pour autant moins souhaitable.

Troisièmement, cette réglementation n’a pas besoin d’être trop stricte. Ce serait irréfléchi d’étrangler ce jeune secteur dynamique en appliquant une réglementation excessive. Cela étant dit, nous avons besoin d’un mécanisme pour réviser régulièrement les règles afin de nous tenir au courant des développements technologiques et du marché.

Quatrièmement, les règles, les niveaux de risques et les niveaux des mesures de protection doivent être définis en consultation avec de nombreux experts qui ont l’expérience pertinente.

Cinquièmement, nous n’avons pas besoin d’attendre dix ans. Depuis dix ans, je ne cesse de parler des risques graves qui découlent de l’Internet des Objets et des vulnérabilités que l’on trouve dans l’équipement industriel, alors que certains documents comme la loi sur la cyber-résilience de l’UE n’ont fait leur apparition que l’an dernier, et comme brouillon !

C’est tout pour le moment les amis ! Merci à tous ceux qui ont lu cet article en entier. Sur ce, continuons à travailler pour que l’IA ait un avenir intéressant, sûr et amélioré !

Conseils