Intelligence artificielle : prévenir les risques d'atteintes aux droits fondamentaux

Identification biométrique à distance dans l'espace public, notation sociale ("social scoring")... La Commission nationale consultative des droits de l’homme (CNCDH) recommande d'interdire certains usages de l’intelligence artificielle susceptibles de porter atteinte aux droits fondamentaux.

Notation sociale d'une foule dans un lieu public.
L'Artificial Intelligence Act interdit en particulier la notation sociale ("social scoring") qui consiste, pour les autorités publiques, à évaluer des personnes en fonction de leur comportement social. © zapp2photo - stock.adobe.com

Les gouvernements et entreprises ont de plus en plus recours à l’intelligence artificielle (IA), que cela soit pour permettre l'accès à des applications ou à des lieux par authentification biométrique ou pour réaliser des diagnostics médicaux automatisés.

Face à cette situation, la Commission nationale consultative des droits de l’homme (CNCDH) vient de rendre, le 7 avril 2022, un avis sur l’impact de l’intelligence artificielle concernant les droits fondamentaux

La nécessité d'un cadre juridique

Comme la CNCDH, de nombreuses instances internationales ont alerté sur l'impact de l'IA par rapport aux droits fondamentaux, notamment sur le respect de la dignité humaine, le respect de la vie privée et la protection des données, l'égalité et la non-discrimination, l'accès à la justice et l'accès aux droits sociaux. 

Actuellement, il n'existe pas de cadre juridique, tant à l'échelon national qu'international, pour prévenir ces risques. Néanmoins, en avril 2021, la Commission européenne a présenté son projet de règlement sur l’intelligence artificielle, appelé l'Artificial Intelligence Act (AIA) qui doit encore être adopté par le Parlement européen et le Conseil européen. Des travaux sont également menés au sein du Conseil de l'Europe.

La CNCDH émet donc une vingtaine de recommandations pour la mise en place d'un cadre juridique contraignant, qui soit en mesure de garantir le respect des droits fondamentaux.

Tracer des lignes rouges aux usages de l’IA

L'avis de la CNCDH rejoint la proposition de règlement de l'UE sur la nécessité d'interdire certains usages de l'IA considérés comme des menaces pour la protection des droits fondamentaux. L'Artificial Intelligence Act interdit en particulier :

  • l’utilisation de systèmes “reposant sur des composants subliminaux que les personnes ne peuvent pas percevoir, ou exploitant les fragilités des enfants et des personnes vulnérables en raison de leur âge ou de leurs handicaps physiques ou mentaux" ;
  • la notation sociale ("social scoring") qui consiste, pour les autorités publiques, à évaluer des personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles ;
  • l’utilisation de systèmes d’identification biométrique à distance "en temps réel" (reconnaissance des visages, des empreintes digitales, de la voix...) dans les espaces publics, à des fins répressives.

Mais ces "lignes rouges" comportent des limites, selon la CNCDH  Ainsi, la commission est favorable à l'interdiction de tout type de notation sociale, aussi bien publique que privée. De même, elle plaide pour l'interdiction de toute identification biométrique à distance, en temps réel ou en différé, à l’exception de la détection d’un danger grave et imminent pour la sécurité des personnes et celles des établissements et installations d’importance vitale. Elle évoque également la nécessité d’étendre l’interdiction à d’autres domaines, tels que la justice.

La CNCDH recommande, par ailleurs, que l'impact sur les droits fondamentaux soit évalué pour tout système d'IA, de la conception à l'usage final. La commission appelle aussi à reconnaître des droits aux personnes ayant fait l’objet d’une décision impliquant un algorithme, notamment un droit à une intervention humaine dans le processus de décision et un droit au paramétrage des critères de fonctionnement du système d’IA.