Une convention-cadre sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit a été adoptée par les ministres des affaires étrangères des 46 pays membres du Conseil de l'Europe, lors de leur session annuelle le 17 mai 2024, à Strasbourg.
Il s’agit du tout premier texte d’ampleur internationale dans le domaine de l’IA qui soit juridiquement contraignant. Cela signifie que les États qui y adhéreront devront le mettre en œuvre dans leur législation nationale.
Ce traité a été élaboré par un organe intergouvernemental qui a rassemblé les 46 États membres, l’Union européenne et 11 États non membres (dont les États-Unis, le Canada et le Japon). La convention sera ouverte à la signature des États en septembre 2024, y compris des pays non européens.
Garantir une IA respectueuse des droits fondamentaux
L’intelligence artificielle touche des aspects de plus en plus nombreux de la vie quotidienne des citoyens, que cela soit dans le domaine de l’emploi, de la santé ou de la sécurité. Elle présente à la fois des opportunités mais aussi des risques :
- de pratiques discriminatoires, liées notamment au genre ou à l'origine ethnique ;
- de remise en cause des processus démocratiques (par exemple, par la diffusion de fausses informations) ;
- d’atteinte à la vie privée et à l’autonomie personnelle ;
- d'utilisations abusives des systèmes d'intelligence artificielle par certains États à des fins répressives.
Le traité établit des règles visant à garantir le respect des droits fondamentaux à toutes les étapes du cycle de vie des systèmes d'IA (conception, collecte de données...). Il promeut et encourage l'innovation pour minimiser ces risques et garantir que les développements technologiques dans le domaine de l'intelligence artificielle se fassent de manière responsable et éthique.
Le Conseil de l’Europe précise que le traité est compatible avec l’AI Act, une loi adoptée en mars 2024 par le parlement européen visant à encadrer les systèmes d'intelligence artificielle en Europe.
Des exigences de transparence et de contrôle
Le traité s'applique à l'utilisation des systèmes d'IA par les pouvoirs publics et les acteurs privés. Il impose des exigences de transparence et de contrôle. Les processus décisionnels et le fonctionnement des modèles d'IA doivent être compréhensibles et accessibles aux acteurs concernés. Les utilisateurs doivent être informés lorsqu'ils interagissent avec une IA.
Des exceptions à ces obligations de transparence peuvent s’appliquer dans l'intérêt de l'ordre public, de la sécurité nationale ou dans le cadre d’activités de recherche et de développement.
Une meilleure compréhension de ces systèmes doit aider à déterminer la responsabilité en cas d'impacts négatifs sur les droits de l'homme, la démocratie ou l'État de droit, et permettre aux personnes concernées de contester les décisions prises par une IA.
Les États doivent notamment :
- prendre des mesures pour que les responsables des systèmes d'IA anticipent et atténuent les risques ;
- évaluer la nécessité de moratoires ou d'interdictions si l'utilisation de ces systèmes menace les droits fondamentaux ;
- prévoir des voies de recours pour les victimes en cas de violation des droits de l'homme ;
- instaurer un organisme indépendant chargé de surveiller l'application des règles établies par le traité.