{"id":11430,"date":"2019-02-20T13:17:53","date_gmt":"2019-02-20T13:17:53","guid":{"rendered":"https:\/\/www.kaspersky.fr\/blog\/?p=11430"},"modified":"2019-11-22T08:54:15","modified_gmt":"2019-11-22T08:54:15","slug":"when-ai-decides","status":"publish","type":"post","link":"https:\/\/www.kaspersky.fr\/blog\/when-ai-decides\/11430\/","title":{"rendered":"Cons\u00e9quences de l&rsquo;intelligence artificielle sur nos vies"},"content":{"rendered":"<p>M\u00eame si nous avons d\u00e9j\u00e0 parl\u00e9 des <a href=\"https:\/\/www.kaspersky.com\/blog\/machine-learning-nine-challenges\/23553\/\" target=\"_blank\" rel=\"noopener nofollow\">principaux probl\u00e8mes de l\u2019IA<\/a> sous sa forme actuelle, les gens continuent de confier certaines t\u00e2ches importantes aux robots. Les juges et les m\u00e9decins utilisent d\u00e9j\u00e0 des syst\u00e8mes d\u2019apprentissage autonome pour prendre certaines d\u00e9cisions, et ils peuvent m\u00eame pr\u00e9dire des crimes qui n\u2019ont pas encore \u00e9t\u00e9 commis. Et pourtant les utilisateurs de ces syst\u00e8mes ignorent souvent comment ils tirent leurs conclusions.<\/p>\n<h2>La s\u00e9ance est ouverte, le tribunal d\u00e9marre maintenant<\/h2>\n<p>Les tribunaux am\u00e9ricains utilisent l\u2019IA pour prendre certaines d\u00e9cisions relatives au <a href=\"https:\/\/www.wired.com\/2017\/04\/courts-using-ai-sentence-criminals-must-stop-now\/\" target=\"_blank\" rel=\"noopener nofollow\">verdict, aux mesures de pr\u00e9vention, et aux r\u00e9ductions de peine<\/a>. Apr\u00e8s avoir analys\u00e9 les donn\u00e9es pertinentes, le syst\u00e8me d\u2019IA d\u00e9cide si un suspect pourrait r\u00e9cidiver, et selon le r\u00e9sultat obtenu la personne pourrait \u00eatre condamn\u00e9e \u00e0 aller en prison au lieu d\u2019\u00eatre en conditionnelle, ou se verrait refuser sa demande de mise en libert\u00e9 sous caution.<\/p>\n<p>Par exemple, le citoyen am\u00e9ricain Eric Loomis <a href=\"https:\/\/www.bbc.com\/news\/magazine-37658374\" target=\"_blank\" rel=\"noopener nofollow\">a \u00e9t\u00e9 condamn\u00e9 \u00e0 six ans de prison<\/a> pour avoir conduit une voiture depuis laquelle un individu a tir\u00e9 des coups de feu contre un b\u00e2timent. Cette d\u00e9cision repose sur l\u2019algorithme COMPAS, qui \u00e9value les dangers que certains individus repr\u00e9sentent pour la soci\u00e9t\u00e9. Le profil de l\u2019accus\u00e9 et son casier judiciaire ont \u00e9t\u00e9 t\u00e9l\u00e9charg\u00e9s sur COMPAS, puis il a \u00e9t\u00e9 identifi\u00e9 comme \u00ab\u00a0individu repr\u00e9sentant un risque \u00e9lev\u00e9 pour la communaut\u00e9\u00a0\u00bb. La d\u00e9fense a contest\u00e9 cette d\u00e9cision en clamant que le fonctionnement de l\u2019algorithme n\u2019a pas \u00e9t\u00e9 r\u00e9v\u00e9l\u00e9, et qu\u2019il \u00e9tait donc impossible d\u2019\u00e9valuer l\u2019impartialit\u00e9 de ces conclusions. La cour a rejet\u00e9 cet argument.<\/p>\n<h3>Des voyants \u00e9lectroniques\u00a0: la pr\u00e9diction des crimes repose sur l\u2019IA<\/h3>\n<p>En Chine, certaines r\u00e9gions sont all\u00e9es encore plus loin, puisqu\u2019elles <a href=\"https:\/\/www.theglobeandmail.com\/news\/world\/china-using-big-data-to-detain-people-in-re-education-before-crime-committed-report\/article38126551\/\" target=\"_blank\" rel=\"noopener nofollow\">utilisent l\u2019IA pour identifier de potentiels criminels<\/a>. Les cam\u00e9ras de reconnaissance faciale surveillent la population, et avertissent les autorit\u00e9s polici\u00e8res si elles d\u00e9tectent quelque chose de suspect. Par exemple, si quelqu\u2019un ach\u00e8te une grande quantit\u00e9 d\u2019engrais, il pourrait \u00eatre en train de pr\u00e9parer un attentat. Toute personne ayant un comportement suspect peut \u00eatre interpell\u00e9e, ou envoy\u00e9e \u00e0 un camp de r\u00e9\u00e9ducation.<\/p>\n<p>D\u2019autres pays d\u00e9veloppent aussi cette technologie permettant d\u2019anticiper les crimes. Les services de police de certaines villes des \u00c9tats-Unis et de Grande-Bretagne <a href=\"https:\/\/www.bbc.com\/news\/business-46017239\" target=\"_blank\" rel=\"noopener nofollow\">utilisent cette technologie<\/a> pour pr\u00e9dire l\u2019endroit o\u00f9 le prochain incident va s\u00fbrement avoir lieu. Plusieurs facteurs sont pris en consid\u00e9ration\u00a0: les ant\u00e9c\u00e9dents criminels de l\u2019endroit, la situation socio-\u00e9conomique du quartier, et m\u00eame la m\u00e9t\u00e9o. Il est assez surprenant de voir que depuis que ces outils ont \u00e9t\u00e9 d\u00e9ploy\u00e9s dans certaines zones de Chicago, les agressions \u00e0 main arm\u00e9e <a href=\"https:\/\/www.reuters.com\/article\/us-chicago-police-technology\/as-shootings-soar-chicago-police-use-technology-to-predict-crime-idUSKBN1AL08P\" target=\"_blank\" rel=\"noopener nofollow\">ont diminu\u00e9 d\u2019environ un tiers<\/a>.<\/p>\n<h3>L\u2019ordinateur vous voit<\/h3>\n<p>Les nouvelles technologies sont largement utilis\u00e9es en m\u00e9decine. Les m\u00e9decins artificiels <a href=\"https:\/\/www.artificialintelligence-news.com\/2018\/06\/01\/opinion-ai-remote-medical-consulting\/\" target=\"_blank\" rel=\"noopener nofollow\">voient les patients en consultation<\/a>, <a href=\"https:\/\/www.telegraph.co.uk\/news\/world\/china-watch\/technology\/artificial-intelligence-in-medicine\/\" target=\"_blank\" rel=\"noopener nofollow\">posent des diagnostics<\/a>, analysent les r\u00e9sultats, et <a href=\"https:\/\/news.microsoft.com\/apac\/features\/ai-in-the-operating-theater-technology-transforms-cosmetic-surgery-in-korea\/\" target=\"_blank\" rel=\"noopener nofollow\">aident les chirurgiens pendant les interventions<\/a>.<\/p>\n<p>Un des syst\u00e8mes d\u2019apprentissage automatique les plus connus dans le milieu de la sant\u00e9 est <a href=\"https:\/\/www.ibm.com\/watson\/fr-fr\/health\/\" target=\"_blank\" rel=\"noopener nofollow\">IBM Watson Health<\/a>. Les m\u00e9decins entra\u00eenent l\u2019IA \u00e0 diagnostiquer les maladies, et \u00e0 prescrire un traitement. Watson Health a eu beaucoup de retours positifs. En 2013, par exemple, la probabilit\u00e9 qu\u2019un <a href=\"https:\/\/www.wired.co.uk\/article\/ibm-watson-medical-doctor\" target=\"_blank\" rel=\"noopener nofollow\">superordinateur choisisse le traitement optimal<\/a> \u00e9tait de 90 %.<\/p>\n<p>Cependant, certaines r\u00e9v\u00e9lations ont \u00e9t\u00e9 faites au cours de l\u2019\u00e9t\u00e9 de 2018, puisque <a href=\"https:\/\/www.theverge.com\/2018\/7\/26\/17619382\/ibms-watson-cancer-ai-healthcare-science\" target=\"_blank\" rel=\"noopener nofollow\">certains conseils donn\u00e9s par le syst\u00e8me en mati\u00e8re de traitement contre le cancer \u00e9taient dangereux<\/a>. Par exemple, Watson a conseill\u00e9 de donner \u00e0 un patient atteint d\u2019un cancer, et qui souffre d\u2019h\u00e9morragies, un traitement qui provoquerait encore plus de saignements. Heureusement, ces cas n\u2019\u00e9taient pas r\u00e9els mais hypoth\u00e9tiques.<\/p>\n<p>Il est vrai que les m\u00e9decins humains commettent certaines erreurs, mais lorsque l\u2019IA est impliqu\u00e9e, il est plus difficile de savoir qui est responsable. Est-ce qu\u2019un m\u00e9decin en chair et en os prendrait le risque de contredire un coll\u00e8gue num\u00e9rique con\u00e7u par des personnes qui l\u2019ont rempli de centaines de milliers d\u2019articles scientifiques, de livres, et d\u2019\u00e9tudes de cas\u00a0? Si le m\u00e9decin ne le fait pas, devrait-il assumer toutes les cons\u00e9quences, m\u00eame les n\u00e9gatives\u00a0?<\/p>\n<p><strong>L\u2019IA doit \u00eatre transparente<\/strong><\/p>\n<p>Un des principaux probl\u00e8mes de l\u2019utilisation de l\u2019IA pour dire quel sera le destin de l\u2019humanit\u00e9, est que les algorithmes sont souvent obscurs, et qu\u2019il est tr\u00e8s difficile d\u2019identifier l\u2019origine des erreurs pour \u00e9viter qu\u2019elles ne se reproduisent. Si l\u2019on adopte la position des d\u00e9veloppeurs de ces syst\u00e8mes d\u2019apprentissage autonome, cette situation est compr\u00e9hensible\u00a0: Qui accepte de partager son savoir-faire avec d\u2019\u00e9ventuels concurrents\u00a0? Les secrets commerciaux devraient-ils \u00eatre si importants lorsque la vie des gens est en jeu\u00a0?<\/p>\n<p>Les hommes politiques du monde entier essaient de voir quelle attitude adopter vis-\u00e0-vis de la r\u00e9glementation de <a href=\"https:\/\/en.wikipedia.org\/wiki\/Right_to_explanation\" target=\"_blank\" rel=\"noopener nofollow\">l\u2019IA peu transparente<\/a>. Au sein de l\u2019Union europ\u00e9enne, les \u00ab\u00a0personnes concern\u00e9es\u00a0\u00bb ont le droit de savoir sur quels crit\u00e8res reposent ces d\u00e9cisions, prises par l\u2019IA, et qui affectent leurs int\u00e9r\u00eats. Le <a href=\"https:\/\/asia.nikkei.com\/Business\/Science\/Japan-to-hold-companies-accountable-for-AI-decisions\" target=\"_blank\" rel=\"noopener nofollow\">Japon<\/a> s\u2019est engag\u00e9 sur cette m\u00eame voie, mais la loi en question est encore en cours de discussion.<\/p>\n<p>Quelques d\u00e9veloppeurs sont favorables \u00e0 la transparence, mais ils sont plut\u00f4t rares \u00e0 ce jour. C\u2019est notamment le cas de l\u2019entreprise technologique CivicScape, qui a r\u00e9v\u00e9l\u00e9 en 2017 le <a href=\"https:\/\/qz.com\/938635\/a-predictive-policing-startup-released-all-its-code-so-it-can-be-scoured-for-bias\/\" target=\"_blank\" rel=\"noopener nofollow\">code source de son syst\u00e8me de pr\u00e9vision polici\u00e8re<\/a>. Cette situation demeure l\u2019exception, et non la r\u00e8gle.<\/p>\n<p>Maintenant que le g\u00e9nie de l\u2019IA est sorti de sa lampe, il est peu probable que l\u2019humanit\u00e9 fasse marche arri\u00e8re. Cela signifie que tant qu\u2019il sera impossible de prouver que les d\u00e9cisions prises par l\u2019IA sont impartiales et justes, l\u2019utilisation de l\u2019IA doit reposer sur des lois bien con\u00e7ues, et sur les comp\u00e9tences des cr\u00e9ateurs et des utilisateurs de ces syst\u00e8mes d\u2019apprentissage autonome.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La technologie de l\u2019apprentissage automatique aide les juges, les officiers de police, et les m\u00e9decins \u00e0 prendre certaines d\u00e9cisions, mais son manque de transparence am\u00e8ne les d\u00e9fenseurs des droits de l\u2019Homme \u00e0 soulever certaines questions.<\/p>\n","protected":false},"author":2049,"featured_media":11431,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1869],"tags":[1972,3383,2951,527],"class_list":{"0":"post-11430","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-apprentissage-automatique","9":"tag-ia","10":"tag-intelligence-artificielle","11":"tag-technologie"},"hreflang":[{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/when-ai-decides\/11430\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/when-ai-decides\/15239\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/when-ai-decides\/12808\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/when-ai-decides\/17177\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/when-ai-decides\/15338\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/when-ai-decides\/14056\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/when-ai-decides\/17854\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/when-ai-decides\/16903\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/when-ai-decides\/22243\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/when-ai-decides\/5693\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/when-ai-decides\/25607\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/when-ai-decides\/11514\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/when-ai-decides\/10353\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/when-ai-decides\/18553\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/when-ai-decides\/22440\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/when-ai-decides\/17938\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/when-ai-decides\/22111\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/when-ai-decides\/22046\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.fr\/blog\/tag\/intelligence-artificielle\/","name":"intelligence artificielle"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/11430","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/users\/2049"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/comments?post=11430"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/11430\/revisions"}],"predecessor-version":[{"id":12720,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/posts\/11430\/revisions\/12720"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/media\/11431"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/media?parent=11430"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/categories?post=11430"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.fr\/blog\/wp-json\/wp\/v2\/tags?post=11430"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}