La responsabilité civile à l'épreuve de l'IA
Introduction
L’identification du régime de responsabilité adéquate à l’intelligence artificielle se heurte à deux difficultés principales : la première tient à la multiplicité des acteurs disposant d’une influence sur les actions de l’IA et leurs conséquences, la seconde à l’effet « boîte noire » de l’apprentissage automatique qui ne permet pas toujours d’identifier une faute1.
Au-delà d’une logique juridique, la question de la responsabilité répond également à une logique éthique : qui est responsable et pourquoi ?2. Quel comportement dommageable souhaite-t-on enrayer ?3
Les régimes classiques ne sont pas sans réponse, mais restent lacunaires dans leur appréhension du phénomène. Cette inadaptation laisse entrevoir une place pour un régime sui generis au moins complémentaire et un règlement européen de la responsabilité de l’intelligence artificielle est en cours de discussion.
Des régimes classiques inadaptés
Trois régimes classiques sont envisageables pour l’IA, mais se trouvent inadaptés pour des raisons différentes : la responsabilité du fait personnel, la responsabilité du fait d’autrui et la responsabilité du fait des choses.
1. L’inadéquation de la responsabilité du fait personnel
La responsabilité du fait de l’homme est encadrée en droit interne par les articles 1240 et 1241 du Code civil aux termes desquels tout fait quelconque de l’homme, toute négligence ou imprudence, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer.
La mise en œuvre de cette responsabilité suppose donc tant de déterminer une faute que de déterminer son auteur.
S’agissant de l’auteur tout d’abord, aux termes de cet article il est possible d’engager la responsabilité d’une personne physique ou d’une personne morale, c’est donc la personnalité juridique qui est le critère.
S’il a été envisagé un temps la possibilité de confier la personnalité juridique à une intelligence artificielle, notamment dans l’hypothèse future d’une intelligence artificielle forte ou de conscience artificielle4, cette solution n’est pour autant pas juridiquement satisfaisante selon de nombreux auteurs5.
Confier la personnalité juridique à une intelligence artificielle ou seulement attribuer la responsabilité des actes dommageables à la personne morale dont elle répond aboutit à l’absence de sanction à l’encontre des personnes qui ont développé le code ou nourri...
La proposition d’un régime complémentaire pour les combler
Les apports de certains régimes spéciaux peuvent apporter des solutions partielles telles que :
-
la responsabilité du fait des produits défectueux,
-
la spécificité de la responsabilité des professionnels de santé,
-
l’inspiration du régime des accidents de la circulation.
1. Les solutions partielles de la responsabilité du fait des produits défectueux
La responsabilité du fait des produits défectueux comble les lacunes de la responsabilité du fait des choses avec pour immense avantage d’envisager de nombreux auteurs d’actes dommageables susceptibles d’en porter la responsabilité, mais avec la même difficulté de son domaine d’application matériel.
Ainsi, aux termes des articles 1245 à 1245-17 du code civil, « la responsabilité du fait des produits défectueux est l’obligation pesant sur le producteur, le fabricant, le distributeur, le vendeur ou le loueur d’un bien n’offrant pas la sécurité à laquelle on peut légitimement s’attendre de réparer le dommage causé par celui-ci »10.
La notion de produit est définie de manière extrêmement large, il s’agit de tout bien meuble, sans distinction entre les biens corporels ou incorporels. Lors de la transposition de la directive européenne sur les produits défectueux en droit interne, la garde des Sceaux et ministre de la Justice avait expressément entendu que les logiciels y soient soumis11.
Ainsi, bien qu’il n’y aurait pas dû y avoir, en théorie, de difficulté à appliquer la responsabilité du fait des produits défectueux aux biens immatériels que sont les logiciels et les algorithmes, en pratique aucune décision ne semble pour l’instant être rendue en ce sens, et toutes celles qui ont conclu à la responsabilité d’un logiciel défectueux l’ont fait par référence au support physique qui le portait12.
Plus de vingt ans après l’adoption de la directive, il subsiste encore des difficultés à l’application de la responsabilité du fait des produits défectueux aux...
La proposition du Parlement à la Commission d’un règlement européen de la responsabilité de l’intelligence artificielle
Le 5 octobre 2020, le Parlement Européen a remis à la Commission un rapport contenant des recommandations quant au régime de responsabilité civile pour l’intelligence artificielle26.
Dès les premiers considérants, la personnalité juridique de l’IA est complètement exclue, les IA n’ont pour seul rôle que de servir l’humanité et n’ont pas la conscience humaine.
Ensuite, le rapport recommande d’établir un régime qui ne distingue pas entre les solutions d’IA disposant ou non d’un support physique : les recommandations ont vocation à couvrir l’ensemble des systèmes de « prise de décision automatisée », balayant l’écueil des régimes qui butaient sur l’absence d’enveloppe matérielle des algorithmes.
Par ailleurs, le rapport recommande l’introduction de la notion d’opérateur frontal et d’opérateur d’amont :
-
« l’opérateur frontal devrait être défini comme la personne physique ou morale qui exerce un certain contrôle sur un risque associé à la mise en oeuvre et au fonctionnement du système d’IA...
Notes
1 Résolution du Parlement Européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL).
2 A. Bonnet, Conférence Galatea Network, Être, vouloir, pouvoir : la responsabilité des agents autonomes « Introduction », 13 septembre 2018).
3 P. Chauviré, Colloque, L’intensification de la fonction normative de la responsabilité civile, Acte II de la réforme du livre III du Code civil, « Présentation », Vendredi 17 mai 2019, faculté de droit de Metz.
4 Cf. chapitre Conclusion : Demain, une IA forte... au présent ouvrage.
5 Lettre ouverte adressée en 2018 à la commission Européenne signée par plus de 220 experts de l’IA (juristes, scientifiques et industriels) de 14 pays différents.
6 F. Campagnola, « La responsabilité en droit de l’innovation technologique », Village-Justice, 2018 ; A. Bonnet, dir. N. Molfessis, La Responsabilité du fait de l’intelligence artificielle, 2015.
7 A. Bensamoun, G. Loiseau, « Nouvelles technologies -La gestion des risques de l’intelligence artificielle De l’éthique à la responsabilité », JCP G n° 46, 13 novembre 2017, doctrine 1203, in A. Hamoui...