Conséquences de l’intelligence artificielle sur nos vies

La technologie de l’apprentissage automatique aide les juges, les officiers de police, et les médecins à prendre certaines décisions, mais son manque de transparence amène les défenseurs des droits de l’Homme à soulever certaines questions.

Même si nous avons déjà parlé des principaux problèmes de l’IA sous sa forme actuelle, les gens continuent de confier certaines tâches importantes aux robots. Les juges et les médecins utilisent déjà des systèmes d’apprentissage autonome pour prendre certaines décisions, et ils peuvent même prédire des crimes qui n’ont pas encore été commis. Et pourtant les utilisateurs de ces systèmes ignorent souvent comment ils tirent leurs conclusions.

La séance est ouverte, le tribunal démarre maintenant

Les tribunaux américains utilisent l’IA pour prendre certaines décisions relatives au verdict, aux mesures de prévention, et aux réductions de peine. Après avoir analysé les données pertinentes, le système d’IA décide si un suspect pourrait récidiver, et selon le résultat obtenu la personne pourrait être condamnée à aller en prison au lieu d’être en conditionnelle, ou se verrait refuser sa demande de mise en liberté sous caution.

Par exemple, le citoyen américain Eric Loomis a été condamné à six ans de prison pour avoir conduit une voiture depuis laquelle un individu a tiré des coups de feu contre un bâtiment. Cette décision repose sur l’algorithme COMPAS, qui évalue les dangers que certains individus représentent pour la société. Le profil de l’accusé et son casier judiciaire ont été téléchargés sur COMPAS, puis il a été identifié comme « individu représentant un risque élevé pour la communauté ». La défense a contesté cette décision en clamant que le fonctionnement de l’algorithme n’a pas été révélé, et qu’il était donc impossible d’évaluer l’impartialité de ces conclusions. La cour a rejeté cet argument.

Des voyants électroniques : la prédiction des crimes repose sur l’IA

En Chine, certaines régions sont allées encore plus loin, puisqu’elles utilisent l’IA pour identifier de potentiels criminels. Les caméras de reconnaissance faciale surveillent la population, et avertissent les autorités policières si elles détectent quelque chose de suspect. Par exemple, si quelqu’un achète une grande quantité d’engrais, il pourrait être en train de préparer un attentat. Toute personne ayant un comportement suspect peut être interpellée, ou envoyée à un camp de rééducation.

D’autres pays développent aussi cette technologie permettant d’anticiper les crimes. Les services de police de certaines villes des États-Unis et de Grande-Bretagne utilisent cette technologie pour prédire l’endroit où le prochain incident va sûrement avoir lieu. Plusieurs facteurs sont pris en considération : les antécédents criminels de l’endroit, la situation socio-économique du quartier, et même la météo. Il est assez surprenant de voir que depuis que ces outils ont été déployés dans certaines zones de Chicago, les agressions à main armée ont diminué d’environ un tiers.

L’ordinateur vous voit

Les nouvelles technologies sont largement utilisées en médecine. Les médecins artificiels voient les patients en consultation, posent des diagnostics, analysent les résultats, et aident les chirurgiens pendant les interventions.

Un des systèmes d’apprentissage automatique les plus connus dans le milieu de la santé est IBM Watson Health. Les médecins entraînent l’IA à diagnostiquer les maladies, et à prescrire un traitement. Watson Health a eu beaucoup de retours positifs. En 2013, par exemple, la probabilité qu’un superordinateur choisisse le traitement optimal était de 90 %.

Cependant, certaines révélations ont été faites au cours de l’été de 2018, puisque certains conseils donnés par le système en matière de traitement contre le cancer étaient dangereux. Par exemple, Watson a conseillé de donner à un patient atteint d’un cancer, et qui souffre d’hémorragies, un traitement qui provoquerait encore plus de saignements. Heureusement, ces cas n’étaient pas réels mais hypothétiques.

Il est vrai que les médecins humains commettent certaines erreurs, mais lorsque l’IA est impliquée, il est plus difficile de savoir qui est responsable. Est-ce qu’un médecin en chair et en os prendrait le risque de contredire un collègue numérique conçu par des personnes qui l’ont rempli de centaines de milliers d’articles scientifiques, de livres, et d’études de cas ? Si le médecin ne le fait pas, devrait-il assumer toutes les conséquences, même les négatives ?

L’IA doit être transparente

Un des principaux problèmes de l’utilisation de l’IA pour dire quel sera le destin de l’humanité, est que les algorithmes sont souvent obscurs, et qu’il est très difficile d’identifier l’origine des erreurs pour éviter qu’elles ne se reproduisent. Si l’on adopte la position des développeurs de ces systèmes d’apprentissage autonome, cette situation est compréhensible : Qui accepte de partager son savoir-faire avec d’éventuels concurrents ? Les secrets commerciaux devraient-ils être si importants lorsque la vie des gens est en jeu ?

Les hommes politiques du monde entier essaient de voir quelle attitude adopter vis-à-vis de la réglementation de l’IA peu transparente. Au sein de l’Union européenne, les « personnes concernées » ont le droit de savoir sur quels critères reposent ces décisions, prises par l’IA, et qui affectent leurs intérêts. Le Japon s’est engagé sur cette même voie, mais la loi en question est encore en cours de discussion.

Quelques développeurs sont favorables à la transparence, mais ils sont plutôt rares à ce jour. C’est notamment le cas de l’entreprise technologique CivicScape, qui a révélé en 2017 le code source de son système de prévision policière. Cette situation demeure l’exception, et non la règle.

Maintenant que le génie de l’IA est sorti de sa lampe, il est peu probable que l’humanité fasse marche arrière. Cela signifie que tant qu’il sera impossible de prouver que les décisions prises par l’IA sont impartiales et justes, l’utilisation de l’IA doit reposer sur des lois bien conçues, et sur les compétences des créateurs et des utilisateurs de ces systèmes d’apprentissage autonome.

Conseils