Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici

L'approche européenne pour une IA de confiance

Introduction

Dans le cadre du règlement européen sur l’IA, il est énoncé que l’IA, pour être acceptable, doit garantir aux Européens qu’ils peuvent lui faire confiance. Ainsi, des règles proportionnées et souples, prévues pour faire face aux risques spécifiques liés aux systèmes d’IA, constitueront l’ensemble de normes le plus strict au monde.

Un plan coordonné décrit les réorientations et les investissements qui seront nécessaires au niveau des États membres pour renforcer la position de premier plan de l’Europe dans le développement d’une IA centrée sur l’humain, durable, sûre, inclusive et digne de confiance.

images/P2-02DP01.png

Les nouvelles règles, fondées sur une définition de l’IA à l’épreuve du temps, seront directement applicables dans tous les États membres. Elles suivent une approche fondée sur les risques. Le projet de règlement prévoit quatre niveaux de risques : minime, limité, élevé et inacceptable.

En pratique, il n’est pas question d’autoriser des usages inacceptables en IA au sein de l’Union. En revanche, l’IA relevant de l’un des trois premiers niveaux pourra être mis en œuvre. Évidemment, la rigueur des obligations sera différente...

Les systèmes d’IA inacceptables

Les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États.

Un usage inacceptable regroupe des systèmes de notation sociale par les États (à l’image de ce qui se fait en Chine), et des jouets dotés d’un assistant vocal poussant des mineurs à avoir un comportement dangereux. Sont aussi inclus ce qui manipule le comportement humain ou abolit le libre arbitre, et ce qui est une « menace évidente » pour la sécurité, les droits des personnes et les moyens de subsistance.

Les systèmes d’IA à haut risque

Parmi les systèmes d’IA présentant des risques élevés, citons les huit technologies d’IA suivantes :

  • les technologies d’IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens ;

  • les technologies d’IA utilisées dans l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examen) ;

  • les technologies d’IA utilisées dans les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot) ;

  • les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main-d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement) ;

  • les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit qui prive certains citoyens de la possibilité d’obtenir un prêt) ;

  • les technologies d’IA...

Les systèmes d’IA tenus à des obligations spécifiques de transparence

Des obligations spécifiques en matière de transparence s’appliquent aux systèmes d’IA à risque limité : lorsqu’ils utilisent des systèmes d’IA tels que des chatbots, les utilisateurs doivent savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non.

Les systèmes d’IA autorisés

La proposition législative autorise l’utilisation libre d’applications telles que les jeux vidéo ou les filtres antispam reposant sur l’IA.

La grande majorité des systèmes d’IA relèvent de cette catégorie.

Le projet de règlement ne prévoit pas d’intervention dans ce domaine car ces systèmes ne représentent qu’un risque insignifiant, voire nul, pour les droits ou la sécurité des citoyens.

En ce qui concerne la gouvernance, la Commission propose que les autorités nationales compétentes de surveillance du marché veillent au respect des nouvelles règles dont la mise en œuvre sera facilitée par la création d’un comité européen de l’intelligence artificielle qui sera également chargé de stimuler l’élaboration de normes pour l’IA.

Au-delà, la proposition prévoit des codes de conduite facultatifs pour les systèmes d’IA ne présentant pas de risque élevé, ainsi que des « bacs à sable réglementaires » pour faciliter une innovation responsable.

La Commission Européenne ne propose aucun encadrement particulier pour les risques minimes, car les outils qui tombent dans cette catégorie constituent une menace insignifiante...