Avis CNCDH - Intelligence artificielle et droits humains : Pour l’élaboration d’un cadre juridique ambitieux

La Commission Nationale Consultative des Droits de l’Homme a adopté à l’unanimité, le 7 avril 2022, un avis "relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux".

Le MRAP ne peut qu’être sensible aux mises en garde et aux préconisations figurant dans cet avis, notamment la recommandation d’interdire :

  • la mise en place de tout type de notation sociale par les administrations publiques ou privées ;
  • l’identification biométrique à distance des personnes dans l’espace public et les lieux accessibles au public,
  • l’utilisation de technologies de reconnaissance des émotions.

Communiqué de presse

L’« intelligence artificielle (IA) » a envahi notre quotidien. Si le traitement des données permet aux acteurs privés et publics de proposer des services, des prestations, des produits plus
personnalisés, l’IA peut avoir des effets négatifs majeurs sur les droits fondamentaux. Or, le cadre juridique existant demeure lacunaire. La proposition de règlement de l’Union européenne sur l’IA va dans le bon sens, mais ne présente pas de garanties suffisantes pour la protection des droits fondamentaux.

Dans un avis adopté à l’unanimité, la CNCDH formule dix-neuf recommandations à l’attention de la France pour qu’elle contribue à l’adoption d’un cadre juridique ambitieux.

En préambule, la CNCDH recommande aux institutions publiques et aux médias de privilégier une terminologie plus neutre et objective que l’expression « intelligence artificielle ».

Interdire certains usages.

Dans son avis, la CNCDH précise et complète la liste des interdictions posées par le projet de règlement européen.
La CNCDH recommande l’interdiction de :

  • La mise en place de tout type de notation sociale par les administrations ou les entreprises publiques ou privées ;
  • L’identification biométrique à distance des personnes dans l’espace public et les lieux accessibles au public ;
  • L’utilisation de technologies de reconnaissance des émotions.
    Pour certains usages, dont les procédures juridictionnelles, la CNCDH considère qu’il est essentiel d’approfondir la réflexion avant d’envisager l’utilisation de l’IA.

Encadrer les usages.

De la conception à l’usage final des systèmes d’IA, l’impact sur les droits fondamentaux doit être régulièrement évalué. Les utilisateurs publics ou privés doivent conduire des études d’impact qui incluent une prise en compte des droits humains, et qui permette d’identifier les risques d’atteinte à ces derniers – en particulier les effets discriminatoires – ainsi que les mesures d’atténuation mises en place au regard des risques encourus. Ces études devraient être complétées par une consultation des parties prenantes, incluant les personnes visées par le système d’IA.

Garantir une intervention humaine.

Pour que l’IA demeure sous le contrôle de l’Homme, la CNCDH appelle à réintroduire l’humain dans le processus de décision automatisée : contrôle du résultat par
l’utilisateur et droit au paramétrage de l’algorithme.

Informer et former.

Toute personne concernée par un système d’IA, que l’utilisateur soit public ou privé, doit être
informée de l’intervention de l’IA dans la prise de décision la concernant et, de manière intelligible, des modalités de fonctionnement de l’algorithme.
Les systèmes d’IA touchant l’ensemble de la population, la CNCDH considère qu’il est fondamental de développer des outils d’information et de formation accessibles à toutes et tous, et d’inclure les enjeux
techniques, politiques et sociétaux de l’IA dans les programmes d’éducation à la citoyenneté.