Les biais de l’IA : les enjeux juridiques
Introduction
« Pour grands que soient les rois, ils sont ce que nous sommes : Ils peuvent se tromper comme les autres hommes. » Pierre Corneille, Le cid |
« Nous avons des préjugés et l’intelligence artificielle les apprend. » Johanna Brysson |
« Ce ne sont pas les philosophes avec leurs théories, ni les juristes avec leurs formules, mais les ingénieurs avec leurs inventions qui font le droit et surtout le progrès du droit »1. Cette formule, bien que discutable au regard de la terminologie retenue2, témoigne de la prise de conscience actuelle des retards pris par les différentes sources de régulation vis-à-vis des évolutions technologiques. Pour s’en convaincre, il suffit de se pencher sur l’explosion annoncée de l’intelligence artificielle : après l’avènement de la société de l’information et la digitalisation de pans entiers d’activités de notre société, la révolution de l’IA est en marche. Cette (r)évolution s’accompagne d’une médiatisation tous azimuts, oscillant entre fantasmes dystopiques et électrochocs nécessaires d’une opinion publique souvent perdue au sein de ce maelström.
Et pour cause, définir l’intelligence artificielle relève du défi. Si cette notion recouvre traditionnellement tous systèmes...
La discrimination digitale : biais aux multiples facettes
Pour entrer dans la dialectique juridique conduisant à appliquer la règle de droit à des faits établis, encore faut-il aborder l’observation des biais de l’IA de la manière la plus large possible. Ainsi est-il possible de constater que l’intelligence artificielle engendrera des discriminations du fait de biais entropiques mais également exogènes.
1. Des biais entropiques à l’origine de discrimination
De prime abord, les biais entropiques ont généralement comme origine des algorithmes et un code écrit par les développeurs. Ils peuvent également apparaître en raison du caractère « conservateur » intrinsèque de l’IA.
a. Biais cognitifs : les développeurs sont à l’origine de biais de l’IA
L’intelligence artificielle, du fait de sa conception humaine, pourra reproduire les préjugés15 de ses concepteurs et engendrer des biais dits « cognitifs ». Ces biais sont liés à la manière dont les algorithmes sont rédigés par les programmeurs. Ils représentent une forme de distorsion de la manière dont l’information est traitée par rapport à un comportement rationnel ou à la réalité.
Dans certains cas, le programmeur peut avoir suivi des modélisations populaires sans s’assurer de leur exactitude. Il s’agit des biais dits de « bandwagon » ou « du mouton de Panurge ». Dans d’autres cas, le programmeur peut favoriser une vision du monde même si les données disponibles peuvent remettre en question cette vision ; c’est ce qu’on appelle les biais « d’anticipation » ou de « confirmation ». Enfin, citons l’hypothèse de rapprochement fortuit de deux évènements indépendants conduisant à des biais dits de « corrélations illusoires »16.
Dans ces différents cas de figure, les biais algorithmiques proviennent du développeur qui a agi soit de manière consciente17 soit de manière inconsciente.
Les conséquences potentielles de tels biais ne sont...
Un encadrement juridique à parfaire
Force est de constater que pour lutter contre la discriminions numérique, il existe un arsenal juridique mais celui-ci est soumis à de forte pression.
1. Un arsenal juridique préexistant
Le droit français dispose en son sein de plusieurs instruments de lutte contre les discriminations digitales avec des textes généraux progressivement complétés par des législations spécifiques au service de la protection des individus.
a. Le principe général de non-discrimination appliqué aux biais de l’IA
L’obligation de non-discrimination est basée sur le principe constitutionnel d’égalité30. Cette règle a permis au Conseil d’État d’affirmer qu’à situation égale, le traitement doit être le même. Il en découle une interdiction de principe de procéder à des « discriminations ». Trois limites sont toutefois posées : la « discrimination » est possible si la loi l’autorise (i), si l’intérêt général le justifie (ii) ou si la situation présente des différences qui justifient la différence de traitement (iii)31.
Dans le cas où la discrimination n’est pas justifiée, celle-ci peut être sanctionnée au regard de différents textes issus du Code du travail et du Code pénal :
L’article L1132-1 du Code du travail énonce par exemple que tout salarié, tout candidat à un emploi, un stage ou une période de formation en entreprise, ne peut faire l’objet d’une discrimination fondée sur :
-
son origine, son apparence physique, son nom de famille, son lieu de résidence, son état de santé, son handicap, son âge ;
-
son sexe, ses mœurs, son orientation sexuelle, son identité sexuelle ;
-
sa situation familiale, sa grossesse ;
-
ses caractéristiques génétiques ;
-
son appartenance ou sa non-appartenance, vraie ou supposée, à une ethnie, une nation ou une race ;
-
ses opinions politiques, ses activités syndicales ou mutualistes, ses convictions religieuses.32
L’article L1132-1 précité permet de distinguer les discriminations...
Notes
1 C-A. COLLIARD. « La machine et le droit privé français contemporain ». Le droit privé français au milieu du XXe siècle ; 2 Études offertes à Georges Ripert. t.1. LGDJ, 1950, p. 115
2 Le progrès technologique ne fait pas le droit au sens littéral du terme ; il est en revanche à l’origine de profondes mutations de notre droit.
3 Cf. notamment les dérives racistes de chatbot identifiées dès 2017 : https://www.france24.com/fr/20160325-tay-derive-raciste-ia-microsoft-existentialisme-twitter-robot-conversation-nazi
4 https://www.lebigdata.fr/intelligence-artificielle-predire-mort
5 Un parallèle peut être fait ici avec la réflexion menée au début des années 2000 sur l’avènement de la société de l’information et ses enjeux juridiques - Cf. Thèse 2004 - Stéphane ASTIER « Vers une régulation éthique de l’internet ».
7 Commission Européenne - Communiqué de presse, Intelligence artificielle : la Commission franchit une étape dans ses travaux sur les lignes directrices en matière d’éthique, Bruxelles, le 8 avril 2019.
8 Règlement Général Européen sur la Protection des Données entrée en vigueur le 25 mai 2018 - https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679
9 https://business.lesechos.fr/directions-numeriques/digital/big-data/0601035180695-les-enjeux-ethiques-des-algorithmes-328685.php. Voir également le principe de Privacy by design prévu au sein du RGPD précité et sur cette question https://www.haas-avocats.com/nos-competences/rgpd-privacy-design-avocat/
10 Les géants du GAFAMI (Google, Amazon, Facebook, Apple, Microsoft, IBM) bien qu’ayant des situations et statuts différents développent des politiques régulièrement condamnées par les autorités européennes pour atteinte à la vie privée ou au droit de la concurrence. La récente sanction de la CNIL de Google à hauteur de 50 millions d’euros en est un exemple...