Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
  1. Livres et vidéos
  2. Intelligence artificielle
  3. Punir l’IA
Extrait - Intelligence artificielle Enjeux éthiques et juridiques
Extraits du livre
Intelligence artificielle Enjeux éthiques et juridiques Revenir à la page d'achat du livre

Punir l’IA

Introduction

Généralement, lorsqu’une personne est reconnue comme responsable et coupable, une sanction lui est infligée pour la châtier, la dissuader de recommencer et tenter de corriger son comportement.

images/P2-03DP01.png

Une vision plus radicale consisterait à débrancher ou encore désactiver l’IA. Mais si l’IA est dotée d’une personnalité juridique, il existe un faible courant en ce sens, elle serait alors titulaire de droits et on ne pourrait impunément la « tuer » ou la « martyriser ». En outre, peut-elle se réformer ? Une sanction aurait-elle valeur d’exemple pour ses analogues ? Et pourquoi répéter chaque fois la même solution ? Une ligne de code, un nouveau script ne serait-il pas suffisant1 pour purger ses anomalies ?

À supposer que l’on puisse condamner une IA comme auteur d’une infraction : comment alors la punir ? Doit-on lui prescrire des peines similaires à celles infligées aux humains ? Cela a t-il un sens ? La privation de liberté est-elle une solution adaptée pour une machine intelligente ?

Depuis quelques années, l’intelligence artificielle devient un acteur important dans la prévention de la commission d’infractions. L’intelligence artificielle intervient par exemple dans...

Atteintes aux personnes

Avec le développement de l’IA, les risques d’atteinte aux personnes se renforcent. L’IA, qui est par définition virtuelle, a pourtant des conséquences bien réelles qui peuvent aller de l’atteinte à la vie privée jusqu’à l’homicide.

Nous envisagerons successivement les cas où l’IA peut être acteur d’infractions pénales, que ce soit dans l’automobile, l’aéronautique, ou encore en matière de discriminations, dans le domaine de la prédiction policière, des deepfakes ,dans le cadre des armes léthales autonomes), et enfin, par son imprévisibilité. 

1. L’IA et les voitures autonomes

Il ne viendrait pas à l’esprit de parler d’intelligence artificielle et d’atteinte aux personnes sans évoquer le cas des voitures autonomes, qui illustre parfaitement les dangers de l’IA. Le 18 mars 2018, en Arizona, un véhicule Uber autonome avait percuté une piétonne, morte un peu plus tard des suites de ses blessures alors qu’elle avait été transportée à l’hôpital9. En temps normal, la technologie de ces véhicules est supposée détecter des piétons même si ceux-ci ne sont pas sur le trottoir. Un accident similaire avait eu lieu en 2016 où une voiture Tesla était passée sous la remorque d’un camion à pleine vitesse, tuant ainsi le conducteur.

La vraie question au cœur des débats doctrinaux est ainsi de savoir quel régime de responsabilité est applicable à ces évènements tragiques. Le concepteur de l’IA est-il responsable pénalement des infractions commises par ses algorithmes ? L’utilisateur de l’IA engage-t-il lui-même sa responsabilité ?

C’est la question qui était posée à la Cour, lors d’une simulation prospective d’un procès contre l’IA et la voiture autonome. Les participants s’étaient projetés dans un futur proche, 2042, où la technologie était aboutie10. Lors de ce procès fictif avait ainsi été déclarée seul et unique coupable l’intelligence artificielle, dont la personnalité...

Atteintes spécifiques

Outre les atteintes aux personnes, l’IA peut être également à l’origine d’une atteinte aux systèmes d’informations ou aux données personnelles.

1. Les atteintes aux systèmes de traitement automatisé des données (STAD)

L’IA offre d’incroyables ressources pour ce qui est de la prévention contre la cybercriminalité. Citons ici en exemple un système nommé AI² développé par des chercheurs du MIT, qui utilise l’intelligence artificielle pour prédire ou détecter une cyberattaque grâce au machine learning. Le taux de « faux positifs », c’est-à-dire de fausses alertes, serait réduit par 5, ce qui diminue drastiquement la méfiance dans la protection ainsi que dans l’intervention humaine, coûteuse en temps et en argent30.

Néanmoins, il arrive que des individus malintentionnés profitent de l’infini potentiel de l’IA pour porter atteinte aux STAD sans autorisation.

a. L’incrimination d’atteinte aux STAD

La répression des fraudes informatiques a pour fondement initial la loi Godfrain du 5 janvier 198831 qui a incriminé pénalement diverses infractions en matière informatique.

Il n’existe encore aucune définition légale pour préciser ce que l’on entend par STAD. Le Sénat avait pourtant bien tenté de le définir lors de débats parlementaires sur la loi précitée comme étant « tout ensemble composé d’une ou plusieurs unités de traitement, de mémoire, de logiciel, de données, d’organes d’entrées-sorties et de liaisons, qui concourent à un résultat déterminé, cet ensemble étant protégé par des dispositifs de sécurité ». Cette définition n’a pas été retenue, car il était craint qu’elle ne résiste que trop mal au temps et aux innovations technologiques32.

Cette absence de définition ne semble pas gêner les juges puisqu’ils estiment que « les termes qui définissent la notion de « système de traitement automatisé de données »...

Notes

1 Face à une personne non humaine, l’option traditionnellement adoptée en matière de responsabilité légale est l’indemnisation financière de la victime. Cependant, il faudrait encore que celle-ci dispose d’un patrimoine ou que soit mis en place un fonds de garantie pour couvrir les dédommagements.

2PE, résolution, 16 févr. 2017, contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique.

3 Dafni Lima, « Could AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law », (2018) note 10, p. 694.

4 MIT Technology Review, 26 oct. 2017 « Could we build a machine with consciousness »

5 Rodolphe MESA, Cahiers de droit de l’entreprise n° 3, Mai 2020, dossier 18 « Droit pénal - Développement et utilisation de l’IA Quels risques pénaux pour les entreprises ? »

6 Cass. crim., 7 janv. 2020, n° 18-84.755 : JurisData n° 2020-000055 ; JCP G 2020, 267, note E. Dreyer. - Non incrimination de la vente d’un programme informatique s’il ne permet pas de commettre une des infractions prévues et réprimées par les articles 323-1 à 323-3 (voir Les atteintes aux systèmes de traitement automatisé des données (STAD), dans la section...