{"id":20625,"date":"2023-05-26T11:00:40","date_gmt":"2023-05-26T09:00:40","guid":{"rendered":"https:\/\/www.kaspersky.fr\/blog\/?p=20625"},"modified":"2023-05-26T11:26:38","modified_gmt":"2023-05-26T09:26:38","slug":"ai-government-regulation","status":"publish","type":"post","link":"https:\/\/www.kaspersky.fr\/blog\/ai-government-regulation\/20625\/","title":{"rendered":"Comment aborder l&rsquo;intelligence artificielle"},"content":{"rendered":"<p>Je suis un peu las de voir tous ces articles sur l\u2019IA, mais j\u2019imagine que je vais devoir supporter cette situation un peu plus longtemps, puisqu\u2019il est \u00e9vident qu\u2019on va encore en parler sans arr\u00eat pendant au moins un ou deux ans. \u00c9videmment, cela ne signifie pas que l\u2019IA ne va plus se d\u00e9velopper. C\u2019est juste que les journalistes, les blogueurs, les utilisateurs de TikTok et de Twitter, et tous les commentateurs en auront assez de parler de ce sujet. Pour le moment, les g\u00e9ants du Web et les gouvernements alimentent leur z\u00e8le\u00a0: le Royaume-Uni envisage d\u2019introduire une <a href=\"https:\/\/www.reuters.com\/world\/uk\/britain-opts-adaptable-ai-rules-with-no-single-regulator-2023-03-28\/\" target=\"_blank\" rel=\"nofollow noopener\">r\u00e9glementation en trois axes sur l\u2019IA\u00a0<\/a>; la Chine a \u00e9labor\u00e9 un brouillon de la loi sur l\u2019IA pour un <a href=\"https:\/\/www.reuters.com\/technology\/china-releases-draft-measures-managing-generative-artificial-intelligence-2023-04-11\/\" target=\"_blank\" rel=\"nofollow noopener\">d\u00e9bat public\u00a0<\/a>; les \u00c9tats-Unis r\u00e9clament une <a href=\"https:\/\/www.reuters.com\/technology\/us-begins-study-possible-rules-regulate-ai-like-chatgpt-2023-04-11\/\" target=\"_blank\" rel=\"nofollow noopener\">r\u00e9gulation des algorithmes\u00a0<\/a>; l\u2019Union europ\u00e9enne <a href=\"https:\/\/www.reuters.com\/technology\/ai-booms-eu-lawmakers-wrangle-over-new-rules-2023-03-22\/\" target=\"_blank\" rel=\"nofollow noopener\">d\u00e9bat des brouillons de lois sur l\u2019IA mais n\u2019a encore rien adopt\u00e9<\/a>, et ainsi de suite. Il y a beaucoup de projets pour l\u2019avenir mais, pour le moment, la cr\u00e9ation et l\u2019utilisation des syst\u00e8mes d\u2019IA n\u2019ont pas \u00e9t\u00e9 limit\u00e9s d\u2019une mani\u00e8re ou d\u2019une autre. Pourtant, on dirait que cette situation va bient\u00f4t changer.<\/p>\n<p>La question suivante est ind\u00e9niablement sujette \u00e0 d\u00e9bat\u00a0: avons-nous vraiment besoin d\u2019une r\u00e9glementation gouvernementale de l\u2019IA\u00a0? Si oui, pourquoi et \u00e0 quoi devrait-elle ressembler\u00a0?<\/p>\n<h2>Qu\u2019est-ce qu\u2019il faut r\u00e9glementer\u00a0?<\/h2>\n<p>Qu\u2019est-ce que l\u2019intelligence artificielle ? (Malheureusement) gr\u00e2ce aux services marketing le terme est utilis\u00e9 pour beaucoup de choses, qu\u2019il s\u2019agisse de mod\u00e8les g\u00e9n\u00e9ratifs de pointe comme <a href=\"https:\/\/fr.wikipedia.org\/wiki\/GPT-4\" target=\"_blank\" rel=\"noopener nofollow\">GPT-4<\/a> ou de syst\u00e8mes plus simples d\u2019apprentissage automatique, dont certains qui existent depuis des dizaines d\u2019ann\u00e9es. Vous vous souvenez de la saisie T9 avec les touches de votre t\u00e9l\u00e9phone portable\u00a0? Vous avez d\u00e9j\u00e0 entendu parler de la <a href=\"https:\/\/eugene.kaspersky.fr\/2017\/02\/06\/lintelligence-humachine-lutte-contre-le-snowshoe-spam\/\" target=\"_blank\" rel=\"noopener\">classification automatique des spams et des fichiers malveillants\u00a0<\/a>? Est-ce vous regardez les films que Netflix vous conseille\u00a0? Toutes ces technologies famili\u00e8res reposent sur des algorithmes d\u2019apprentissage automatique, autrement dit l'\u00a0\u00bbIA\u00a0\u00bb.<\/p>\n<p>Kaspersky utilise ces technologies dans ces produits depuis pr\u00e8s de 20 ans, et nous avons toujours pr\u00e9f\u00e9r\u00e9 en parler de fa\u00e7on modeste et utiliser l\u2019expression \u00ab\u00a0apprentissage automatique\u00a0\u00bb ; ne serait-ce que parce que quand les gens entendent parler d\u2019 \u00ab\u00a0intelligence artificielle\u00a0\u00bb la plupart s\u2019imagine un <a href=\"https:\/\/fr.wikipedia.org\/wiki\/HAL_9000\" target=\"_blank\" rel=\"nofollow noopener\">supercalculateur qui parle<\/a>, comme dans un certain <a href=\"https:\/\/fr.wikipedia.org\/wiki\/2001,_l%27Odyss%C3%A9e_de_l%27espace\" target=\"_blank\" rel=\"nofollow noopener\">vaisseau spatial<\/a>, ou toute autre <a href=\"https:\/\/fr.wikipedia.org\/wiki\/R2-D2\" target=\"_blank\" rel=\"nofollow noopener\">invention<\/a> que l\u2019on voit dans les films de <a href=\"https:\/\/fr.wikipedia.org\/wiki\/C-3PO\" target=\"_blank\" rel=\"nofollow noopener\">science-fiction<\/a>. Pourtant, ces ordinateurs et dro\u00efdes qui parlent et qui pensent doivent \u00eatre pleinement capables de penser comme un \u00eatre humain, pour commander <a href=\"https:\/\/fr.wikipedia.org\/wiki\/Intelligence_artificielle_g%C3%A9n%C3%A9rale\" target=\"_blank\" rel=\"nofollow noopener\">l\u2019intelligence artificielle g\u00e9n\u00e9rale<\/a> (AGI) ou la <a href=\"https:\/\/fr.wikipedia.org\/wiki\/Superintelligence\" target=\"_blank\" rel=\"nofollow noopener\">superintelligence<\/a> artificielle (ASI), m\u00eame si aucune des deux n\u2019a \u00e9t\u00e9 invent\u00e9e pour le moment et ne le sera gu\u00e8re dans un avenir proche.<\/p>\n<p>Quoi qu\u2019il en soit, si tous les types d\u2019IA sont \u00e9valu\u00e9s selon les m\u00eames crit\u00e8res et enti\u00e8rement r\u00e9glement\u00e9s, toute l\u2019industrie informatique et bien d\u2019autres secteurs associ\u00e9s ne vont pas faire leurs adieux. Par exemple, si nous (Kaspersky) devions obtenir le consentement de tous les\u00a0\u00ab\u00a0auteurs\u00a0\u00bb de notre set de formation, en tant qu\u2019entreprise de s\u00e9curit\u00e9 informatique, nous nous retrouverions au pied du mur. Nous apprenons des programmes malveillants et des spams, et nous \u00e9tendons les connaissances acquises \u00e0 notre apprentissage automatique, alors que leurs auteurs pr\u00e9f\u00e8rent g\u00e9n\u00e9ralement ne pas divulguer leurs coordonn\u00e9es (qui l\u2019e\u00fbt cru\u00a0?!). De plus, compte tenu du fait que les donn\u00e9es ont \u00e9t\u00e9 recueillies et que nos algorithmes sont entra\u00een\u00e9s depuis pr\u00e8s de 20 ans maintenant, jusqu\u2019\u00e0 quand devrions-nous remonter dans le pass\u00e9\u00a0?<\/p>\n<p>Il est donc essentiel que les l\u00e9gislateurs \u00e9coutent les sp\u00e9cialistes en marketing mais aussi les experts en apprentissage automatique \/ IA et abordent les \u00e9ventuelles r\u00e9glementations de fa\u00e7on sp\u00e9cifique et cibl\u00e9e. Par exemple, ils pourraient utiliser les syst\u00e8mes multifonctionnels entra\u00een\u00e9s \u00e0 l\u2019aide de gros volumes de donn\u00e9es ouvertes, ou les syst\u00e8mes de prise de d\u00e9cision \u00e0 haute responsabilit\u00e9 et avec un niveau de risque \u00e9lev\u00e9.<\/p>\n<p>Toutes les r\u00e9glementations de l\u2019IA devront \u00eatre r\u00e9guli\u00e8rement r\u00e9vis\u00e9es lorsque de nouvelles applications de l\u2019IA appara\u00eetront.<\/p>\n<h2>Pourquoi r\u00e9glementer\u00a0?<\/h2>\n<p>Pour \u00eatre honn\u00eate, je ne crois pas qu\u2019il y aura un Jugement dernier assist\u00e9 par une superintelligence dans les cent prochaines ann\u00e9es. En revanche, je suis convaincu que l\u2019utilisation irr\u00e9fl\u00e9chie de cette bo\u00eete noire informatique va nous donner du fil \u00e0 retordre.<\/p>\n<p>Pour rafra\u00eechir la m\u00e9moire des personnes qui n\u2019ont pas lu nos <a href=\"https:\/\/www.kaspersky.com\/blog\/machine-learning-nine-challenges\/23553\/\" target=\"_blank\" rel=\"nofollow noopener\">articles sur la splendeur et la d\u00e9tresse de l\u2019apprentissage automatique<\/a>, nous rencontrons principalement trois probl\u00e8mes avec l\u2019IA\u00a0:<\/p>\n<ul>\n<li>Nous ne pouvons pas dire avec certitude \u00e0 quel point les donn\u00e9es d\u2019entra\u00eenement utilis\u00e9es \u00e9taient \/ sont correctes.<\/li>\n<li>Nous ne savons pas vraiment ce que l\u2019IA a r\u00e9ussi \u00e0 faire en \u00ab\u00a0comprenant\u00a0\u00bb toutes ces bases de donn\u00e9es ni <a href=\"https:\/\/arxiv.org\/abs\/2004.07780\" target=\"_blank\" rel=\"nofollow noopener\">comment elle prend ses d\u00e9cisions<\/a>.<\/li>\n<li>Plus important encore, les d\u00e9veloppeurs et les utilisateurs peuvent en faire un mauvais usage.<\/li>\n<\/ul>\n<p>Ainsi, tout pourrait arriver\u00a0: un usage malveillant de l\u2019IA ou un respect irr\u00e9fl\u00e9chi des d\u00e9cisions prises par l\u2019IA. Voici quelques <a href=\"https:\/\/www.kaspersky.com\/blog\/ai-fails\/18318\/\" target=\"_blank\" rel=\"nofollow noopener\">exemples<\/a> explicites dans la vie r\u00e9elle\u00a0: des erreurs mortelles de <a href=\"https:\/\/www.ntsb.gov\/investigations\/AccidentReports\/Reports\/HAR1903.pdf\" target=\"_blank\" rel=\"nofollow noopener\">pilotage automatique<\/a>, des <em>deepfakes<\/em> (<a href=\"https:\/\/www.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/34006\/\" target=\"_blank\" rel=\"nofollow noopener\">1<\/a>, <a href=\"https:\/\/www.kaspersky.fr\/blog\/deepfake-darknet-market\/20571\/\" target=\"_blank\" rel=\"nofollow noopener\">2 <\/a>et <a href=\"https:\/\/www.kaspersky.com\/blog\/getting-ready-for-deep-fake-threats\/48193\/\" target=\"_blank\" rel=\"nofollow noopener\">3<\/a>) que nous avons d\u00e9sormais l\u2019habitude de voir dans les m\u00e8mes et actualit\u00e9s, une erreur stupide lors de <a href=\"https:\/\/algorithmwatch.org\/en\/algorithm-school-system-italy\/\" target=\"_blank\" rel=\"nofollow noopener\">l\u2019embauche d\u2019enseignants<\/a>, la police qui interpelle le <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">mauvais voleur \u00e0 l\u2019\u00e9talage<\/a> et un <a href=\"https:\/\/www.reuters.com\/article\/amazon-com-jobs-automation\/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idINKCN1MK0AH?edition-redirect=in\" target=\"_blank\" rel=\"nofollow noopener\">outil de recrutement bas\u00e9 sur une IA misogyne<\/a>. De plus, l\u2019IA peut \u00eatre attaqu\u00e9e \u00e0 l\u2019aide d\u2019\u00e9chantillons de donn\u00e9es hostiles cr\u00e9\u00e9s sur mesure\u00a0: les <a href=\"https:\/\/www.kaspersky.com\/blog\/ai-fails\/18318\/\" target=\"_blank\" rel=\"nofollow noopener\">v\u00e9hicules peuvent \u00eatre leurr\u00e9s en utilisant des stickers<\/a>, une personne peut extraire des <a href=\"https:\/\/venturebeat.com\/2020\/12\/16\/google-apple-and-others-show-large-language-models-trained-on-public-data-expose-personal-information\/\" target=\"_blank\" rel=\"nofollow noopener\">donn\u00e9es personnelles<\/a> de GPT-3 et les <a href=\"https:\/\/securelist.com\/how-to-confuse-antimalware-neural-networks-adversarial-attacks-and-protection\/102949\/\" target=\"_blank\" rel=\"nofollow noopener\">antivirus et les solutions EDR peuvent \u00eatre dup\u00e9s<\/a>. D\u2019ailleurs, <a href=\"https:\/\/fr.wikipedia.org\/wiki\/Dieux_et_M%C3%A9canismes\" target=\"_blank\" rel=\"nofollow noopener\">les attaques qui s\u2019en prennent \u00e0 l\u2019IA des drones de combat<\/a> et que l\u2019on voyait dans les films de science-fiction ne semblent plus si improbables.<\/p>\n<p>En r\u00e9sum\u00e9, l\u2019utilisation de l\u2019IA n\u2019a pas encore provoqu\u00e9 de probl\u00e8mes vraiment majeurs, mais il y a clairement un \u00e9norme potentiel. Ainsi, les priorit\u00e9s des r\u00e9glementations doivent \u00eatre claires\u00a0:<\/p>\n<ol>\n<li>\u00c9viter les incidents au sein d\u2019infrastructures critiques (usines, bateaux, lignes \u00e9lectriques, centrales nucl\u00e9aires).<\/li>\n<li>Minimiser les menaces physiques (v\u00e9hicules sans conducteur, mauvais diagnostic de maladies).<\/li>\n<li>Minimiser les dommages personnels et les risques professionnels (interpellations ou embauches incorrectes, mauvais calculs de demandes \/ d\u2019approvisionnement, etc.).<\/li>\n<\/ol>\n<p>L\u2019objectif des r\u00e9glementations devrait \u00eatre de contraindre les utilisateurs et les fabricants d\u2019IA \u00e0 faire attention \u00e0 ne pas augmenter les risques mentionn\u00e9s ci-dessus et qui pourraient se produire. Plus le risque est grave, plus il faut activement insister sur l\u2019obligation.<\/p>\n<p>Une autre inqui\u00e9tude appara\u00eet souvent lorsqu\u2019il s\u2019agit de l\u2019IA\u00a0: la n\u00e9cessit\u00e9 de respecter les normes morales et \u00e9thiques, et de satisfaire un confort psychologique, si on peut dire. Pour ce faire, nous pouvons penser \u00e0 des mises en garde pour que les utilisateurs sachent qu\u2019il s\u2019agit d\u2019un objet qui n\u2019existe pas (dessin\u00e9 par l\u2019IA) ou qu\u2019ils communiquent avec un robot et non un \u00eatre humain, ou encore \u00e0 des avertissements qui informent que les <a href=\"https:\/\/www.kaspersky.fr\/blog\/neural-networks-data-leaks\/20509\/\" target=\"_blank\" rel=\"nofollow noopener\">droits d\u2019auteur ont \u00e9t\u00e9 respect\u00e9s lors de l\u2019entra\u00eenement de l\u2019IA<\/a>, etc. Pourquoi\u00a0? Pour que les l\u00e9gislateurs et les fabricants d\u2019IA ne soient pas attaqu\u00e9s par les foules en col\u00e8re\u00a0! Certains pays s\u2019en inqui\u00e8tent vraiment\u00a0; souvenez-vous des <a href=\"https:\/\/www.theguardian.com\/world\/2016\/jan\/26\/french-taxi-drivers-block-paris-roads-in-uber-protest\" target=\"_blank\" rel=\"nofollow noopener\">manifestations contre Uber<\/a>.<\/p>\n<h2>Comment r\u00e9glementer\u00a0?<\/h2>\n<p>La fa\u00e7on la plus simple de r\u00e9glementer l\u2019IA serait de tout interdire, mais il semblerait que cette approche ne soit pas encore \u00e0 l\u2019ordre du jour. De toute fa\u00e7on, c\u2019est tout aussi difficile d\u2019interdire l\u2019IA que tous les ordinateurs. Ainsi, toutes les tentatives de r\u00e9glementations raisonnables devraient suivre le principe selon lequel \u00ab\u00a0plus le risque est important, plus les exigences doivent \u00eatre strictes\u00a0\u00bb.<\/p>\n<p>Les mod\u00e8les d\u2019apprentissage automatique utilis\u00e9s pour des actions assez futiles, comme les recommandations d\u2019achats, peuvent ne pas \u00eatre r\u00e9glement\u00e9s mais plus le mod\u00e8le est sophistiqu\u00e9, ou plus le domaine d\u2019application est sensible, plus les exigences doivent \u00eatre drastiques pour les fabricants du syst\u00e8me et les utilisateurs. Par exemple\u00a0:<\/p>\n<ul>\n<li>Soumettre un code de mod\u00e8le ou un ensemble de donn\u00e9es d\u2019apprentissage pour que des l\u00e9gislateurs ou des experts fassent une inspection.<\/li>\n<li>Prouver la robustesse d\u2019un ensemble de donn\u00e9es d\u2019apprentissage, dont les termes parti pris, biais, droit d\u2019auteur, etc.<\/li>\n<li>D\u00e9montrer que les r\u00e9sultats de l\u2019IA sont raisonnables. Par exemple, <a href=\"https:\/\/fortune.com\/2023\/04\/17\/google-ceo-sundar-pichai-artificial-intelligence-bard-hallucinations-unsolved\/\" target=\"_blank\" rel=\"nofollow noopener\">qu\u2019elle n\u2019a pas d\u2019hallucinations<\/a>.<\/li>\n<li>\u00c9tiqueter les op\u00e9rations et les r\u00e9sultats de l\u2019IA.<\/li>\n<li>Mettre \u00e0 jour un mod\u00e8le et un ensemble de donn\u00e9es d\u2019apprentissage. Par exemple, exclure les personnes qui ont une certaine couleur de peau des donn\u00e9es sources ou supprimer les formules de chimie qui servent \u00e0 fabriquer des explosif pour qu\u2019ils n\u2019apparaissent pas dans les r\u00e9sultats.<\/li>\n<li>Tester l\u2019IA pour rechercher des \u00ab\u00a0donn\u00e9es hostiles\u00a0\u00bb et mettre \u00e0 jour son comportement, si n\u00e9cessaire.<\/li>\n<li>Contr\u00f4ler qui utilise une IA en particulier et pourquoi. Refuser certaines utilisations sp\u00e9cifiques.<\/li>\n<li>Limiter l\u2019entra\u00eenement d\u2019une vaste IA, ou une qui concerne un secteur en particulier, pour que ce ne soit possible qu\u2019avec l\u2019accord du l\u00e9gislateur.<\/li>\n<li>Prouver que l\u2019utilisation de l\u2019IA pour r\u00e9soudre un probl\u00e8me sp\u00e9cifique est sans danger. Cette approche est tr\u00e8s originale en informatique mais certains domaines qui consid\u00e8rent que la s\u00e9curit\u00e9 est primordiale, comme les entreprises pharmaceutiques, les fabricants d\u2019avions et bien d\u2019autres, en ont l\u2019habitude. Il y aura d\u2019abord cinq ans de tests approfondis, puis l\u2019autorisation du l\u00e9gislateur et ce n\u2019est qu\u2019\u00e0 ce moment-l\u00e0 que le produit pourra \u00eatre disponible au grand public.<\/li>\n<\/ul>\n<p>Cette derni\u00e8re mesure semble trop stricte, mais vous changerez d\u2019avis lorsque vous aurez entendu parler de certains incidents, comme une <a href=\"https:\/\/www.nature.com\/articles\/538311a#\/b9\" target=\"_blank\" rel=\"nofollow noopener\">IA qui n\u2019a pas donn\u00e9 la priorit\u00e9 aux patients<\/a> qui attendaient de recevoir un traitement pour asthme aigu grave et pneumonie et a essay\u00e9 de les renvoyer chez eux au lieu de les placer en soins intensifs.<\/p>\n<p>Les mesures d\u2019applications peuvent aller des amendes pour avoir enfreints les r\u00e8gles de l\u2019IA (semblables aux sanctions europ\u00e9ennes en cas de non-respect du RGPD) aux licences d\u2019autorisation pour d\u00e9velopper des activit\u00e9s en lien avec l\u2019IA ou encore aux peines p\u00e9nales pour avoir enfreint la loi (comme l\u2019a propos\u00e9 la Chine).<\/p>\n<h2>Est-ce vraiment la meilleure solution ?<\/h2>\n<p>Je vais maintenant vous donner mon avis personnel, mais n\u2019oubliez pas qu\u2019il repose sur 30 ans de recherche active pour un d\u00e9veloppement technologique avanc\u00e9 dans l\u2019univers de la cybers\u00e9curit\u00e9, de l\u2019apprentissage automatique aux syst\u00e8mes \u00ab\u00a0<em>secure-by-design<\/em>\u00a0\u00bb (s\u00e9curis\u00e9s d\u00e8s la conception).<\/p>\n<p>Tout d\u2019abord, nous avons vraiment besoin d\u2019une r\u00e9glementation. S\u2019il n\u2019y en a pas, l\u2019IA finira par ressembler \u00e0 un syst\u00e8me routier sans r\u00e8gles de circulation. Ou, pour une comparaison plus pertinente, \u00e0 la collecte des donn\u00e9es personnelles en ligne comme au d\u00e9but des ann\u00e9es 2000 lorsque n\u2019importe qui pouvait garder toutes les informations trouv\u00e9es. De plus, la r\u00e9glementation promeut l\u2019autodiscipline au sein des acteurs du march\u00e9.<\/p>\n<p>Ensuite, nous devons maximiser l\u2019harmonisation et la coop\u00e9ration internationales pour cette r\u00e9glementation, comme c\u2019est le cas avec les normes techniques des communications mobiles, Internet, etc. Ce souhait para\u00eet utopique \u00e9tant donn\u00e9 la r\u00e9alit\u00e9 g\u00e9opolitique actuelle, mais \u00e7a ne le rend pas pour autant moins souhaitable.<\/p>\n<p>Troisi\u00e8mement, cette r\u00e9glementation n\u2019a pas besoin d\u2019\u00eatre trop stricte. Ce serait irr\u00e9fl\u00e9chi d\u2019\u00e9trangler ce jeune secteur dynamique en appliquant une r\u00e9glementation excessive. Cela \u00e9tant dit, nous avons besoin d\u2019un m\u00e9canisme pour r\u00e9viser r\u00e9guli\u00e8rement les r\u00e8gles afin de nous tenir au courant des d\u00e9veloppements technologiques et du march\u00e9.<\/p>\n<p>Quatri\u00e8mement, les r\u00e8gles, les niveaux de risques et les niveaux des mesures de protection doivent \u00eatre d\u00e9finis en consultation avec de nombreux experts qui ont l\u2019exp\u00e9rience pertinente.<\/p>\n<p>Cinqui\u00e8mement, nous n\u2019avons pas besoin d\u2019attendre dix ans. Depuis dix ans, je ne cesse de parler des risques graves qui d\u00e9coulent de l\u2019Internet des Objets et des vuln\u00e9rabilit\u00e9s que l\u2019on trouve dans l\u2019\u00e9quipement industriel, alors que certains documents comme la <a href=\"https:\/\/digital-strategy.ec.europa.eu\/fr\/library\/cyber-resilience-act\" target=\"_blank\" rel=\"nofollow noopener\">loi sur la cyber-r\u00e9silience de l\u2019UE<\/a> n\u2019ont fait leur apparition que l\u2019an dernier, et comme brouillon\u00a0!<\/p>\n<p>C\u2019est tout pour le moment les amis\u00a0! Merci \u00e0 tous ceux qui ont lu cet article en entier. Sur ce, continuons \u00e0 travailler pour que l\u2019IA ait un avenir int\u00e9ressant, s\u00fbr et am\u00e9lior\u00e9\u00a0!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il est \u00e9vident que l\u2019IA doit \u00eatre r\u00e9glement\u00e9e, mais comment ? Dans cet article, Eugene Kaspersky partage son point de vue.<\/p>\n","protected":false},"author":13,"featured_media":20626,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1869],"tags":[1972,3383,204,4388,4389,632],"class_list":{"0":"post-20625","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-apprentissage-automatique","9":"tag-ia","10":"tag-menaces","11":"tag-reglementation-gouvernementale","12":"tag-reseau-de-neurones","13":"tag-technologies"},"hreflang":[{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ai-government-regulation\/20625\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ai-government-regulation\/25686\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ai-government-regulation\/21105\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/ai-government-regulation\/10626\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ai-government-regulation\/28341\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ai-government-regulation\/25985\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ai-government-regulation\/26358\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ai-government-regulation\/28846\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ai-government-regulation\/27781\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ai-government-regulation\/35317\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ai-government-regulation\/11457\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ai-government-regulation\/48220\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ai-government-regulation\/21311\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ai-government-regulation\/30173\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/ai-government-regulation\/33892\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ai-government-regulation\/26294\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ai-government-regulation\/31993\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ai-government-regulation\/31681\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.fr\/blog\/tag\/ia\/","name":"IA"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/20625","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/users\/13"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/comments?post=20625"}],"version-history":[{"count":9,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/20625\/revisions"}],"predecessor-version":[{"id":20635,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/20625\/revisions\/20635"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/media\/20626"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/media?parent=20625"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/categories?post=20625"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/tags?post=20625"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}