Le développement de l'intelligence artificielle : risque ou opportunité ?

L’intelligence artificielle est-elle une réponse à des problématiques sociétales, environnementales et humaines ou représente-t-elle une menace pour l’humanité et le libre-arbitre des personnes ? Quels sont les atouts de la France et quelles sont les stratégies envisagées dans ce domaine ?

Temps de lecture  8 minutes

L’intelligence artificielle (IA) vise à comprendre comment fonctionne la cognition humaine et à la reproduire. Elle désigne des technologies qui reposent sur l’utilisation d’algorithmes. Ces technologies qui ont des déclinaisons multiples se caractérisent souvent par leur capacité prédictive. Il s’agit de doter les machines d’une intelligence et d’une autonomie propres.

L'IA existe dans des secteurs comme la production industrielle, la médecine, les transports ou la sécurité. Les technologies sollicitées font appel à l'informatique, l'électronique, les mathématiques, les neurosciences et les sciences cognitives.

Le déploiement de l'IA poursuit différents objets comme l'amélioration des conditions de vie des populations, la personnalisation de la prise en charge médicale, la stimulation de l'innovation et de la productivité, l'adaptation aux changements climatiques... Outre les impacts sur la vie quotidienne, ces technologies peuvent aller jusqu’à modifier les frontières entre l’homme et la machine.

La recherche et l'investissement dans la filière IA

Publiés en 2017, le rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques ("Pour une intelligence artificielle maîtrisée, utile et démystifiée") et le rapport "Stratégie France I.A. dressent le constat de l’émergence d’une économie globalisée dominée par des "plateformes". Cette "plateformisation" de l’économie représente un enjeu de compétitivité internationale, où l’accès aux données devient un avantage comparatif. Pour la première fois depuis la Révolution industrielle, la France et l’Europe ne sont pas à l’origine de cette révolution technologique. Les États-Unis avec les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et la Chine sont désormais en situation de duopole au niveau mondial. 

De grandes sommes sont injectées dans la recherche et le développement des technologies d'IA par les acteurs étatiques. En Europe, les investissements atteignent en 2016 près de 3,2 milliards d'euros contre 12,1 milliards d'euros en Amérique du Nord et 6,5 milliards d'euros en Asie.

L'étude réalisée par la Direction générale des entreprises (DGE), le Commissariat général à l'égalité des territoires (CGET) et TECH'IN France recommande de "favoriser l'expérimentation de ces technologies sur le territoire". L'objectif est de faire de la France un acteur majeur de l'IA. Pour initier le mouvement, le Gouvernement français a par exemple lancé une expérimentation de l'IA dans l'administration.

L'Observatoire des acteurs de l'IA du ministère en charge de la recherche recense 542 structures françaises incluant équipes de recherches et entreprises. Dans son rapport de mars 2017, l’Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) souligne la place occupée par de nombreux organismes publics intervenant dans la recherche en intelligence artificielle. Au premier chef figurent l’Institut national de recherche en informatique et en automatique (Inria), le CNRS, le CEA, et différentes universités et grandes écoles dont les travaux ont une visibilité internationale. Toutefois, l’OPECST note que la reconnaissance internationale de la recherche française s’accompagne d’une importante diaspora de chercheurs français en IA.

L'économie fondée sur les données

Une forte concurrence s'exerce dans le domaine de l'IA. L'Union européenne (UE) affiche son ambition dans le livre blanc consacré à l'IA de "devenir un acteur mondial de premier plan en matière d'innovation dans l'économie fondée sur les données et ses applications". 

Le développement des utilisations technologiques de l'IA concerne principalement des stratégies de collecte d'informations et de données. La Commission européenne souhaite saisir l'opportunité de prendre "la nouvelle vague des données" dans les années à venir. L'objectif est de faire émerger des espaces de données des différents secteurs et d'alimenter les systèmes d'IA.

Le rapport Villani affirme que le développement de l'IA passe par une politique de la donnée, qui dans le cas de la France doit être engagée par l'État.

Les questions éthiques posées par les algorithmes

L’IA se construit à partir d’algorithmes qui reposent sur des formules mathématiques et exploitent des données. Les algorithmes posent quatre types de questions :

  • le risque de piratage (drone, voiture autonome) ou la perte de contrôle des systèmes d’IA (notamment lors d’une crise militaire) obligent à prévoir une désactivation des systèmes IA ;
  • l'introduction de biais en amont des algorithmes, dès le stade des jeux de données, nécessite, d’être vigilant notamment pour les algorithmes d’apprentissage automatique ;
  • le fonctionnement des algorithmes d’apprentissage renforcé (le deep learning) à travers des réseaux de neurones artificiels en couches multiples donnent, dans un certain nombre de domaines, d’excellents résultats et très rapidement, sans qu’il soit possible d’avancer une explication théorique satisfaisante. Ce traitement non supervisé de l’information pose des problèmes éthiques (quelle autonomie de l’homme par rapport à un fonctionnement qu’il ne comprend pas ?) et juridiques (qui est responsable ?) ;
  • la sélection par les algorithmes d’un contenu d’informations ciblées, tout comme la publicité personnalisée ou la logique de construction des "fils d’actualité" des réseaux sociaux, ou encore les fausses informations (fake news), nécessitent la mise en place d’outils de vérification.

Par exemple, toutes les applications domestiques ou médicales contiennent des risques en matière de respect de la vie privée et des données personnelles. Comment s’assurer que des données de santé ne seront pas vendues à une compagnie privée ou à un futur employeur ? Comment conjuguer cette collecte massive de données de santé et le respect du "droit à l’oubli" ? Bref, comment s’assurer qu’intelligence artificielle et robotique riment avec traitement des données éthique ?

Pour répondre à ces questions, la Commission nationale de l’informatique et des libertés (CNIL) formule six recommandations opérationnelles à destination des pouvoirs publics et de la société civile :

  • former à l’éthique tous les acteurs-maillons de la "chaîne algorithmique (concepteurs, professionnels, citoyens) : l’alphabétisation au numérique doit permettre à chaque humain de comprendre les ressorts de la machine ;
  • rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ;
  • travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet "boîtes noires" ;
  • constituer une plateforme nationale d’audit des algorithmes ;
  • encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général ;
  • renforcer la fonction éthique au sein des entreprises (par exemple, l’élaboration de comités d’éthique, la diffusion de bonnes pratiques sectorielles ou la révision de chartes de déontologie peuvent être envisagées).

L'OCDE formule également des principes pour encadrer l'IA. Pour le volet éthique, les pays adhérents s'engagent à respecter "l'État de droit, les droits de l'homme et les valeurs démocratiques tout au long du cycle de vie des systèmes d'IA".

En outre, l'automatisation est susceptible de détruire plus d’emplois qu’elle n’en crée. Elle risque aussi de créer un marché du travail à deux vitesses : une minorité d’emplois très qualifiés pour une élite surdiplômée et une majorité de travailleurs précaires dont les compétences ne rapporteront pas assez pour vivre. Il est également à craindre un niveau de chômage élevé, créé par la substitution des logiciels aux emplois les moins qualifiés. Cette vision n'est cependant pas partagée par tous, le rapport sur l'IA et le futur du travail voit dans l'intelligence une potentielle source de prospérité.

Faut-il un statut légal pour les robots ?

Toutes les applications domestiques ou médicales contiennent des risques en matière de respect de la vie privée et des données personnelles. Comment s’assurer que des données ne seront pas vendues à une compagnie privée ? 

Au-delà des “lois d’Asimov”, qui énoncent des principes éthiques généraux pour le fonctionnement des robots, la régulation des systèmes d’intelligence artificielle supervisés ou renforcés suscite une réflexion sur l’élaboration d’un droit de la robotique.

Les trois lois d’Asimov

Première loi. Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé.
Deuxième loi. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi.
Troisième loi. Un robot doit protéger sa propre existence aussi longtemps qu’une protection n’est pas en contradiction avec la première et/ou la deuxième loi.

L’OPECST poursuit sa réflexion sur les contours d’un droit de la robotique. Ce droit doit notamment porter sur la protection des données personnelles et de la vie privée, la propriété intellectuelle, les régimes de responsabilité envisagés ou envisageables, la définition d’un droit applicable selon le type d’agents autonomes (robots industriels, robots de service, voitures autonomes…).

Les enjeux juridiques de l'essor de l'IA sont centrés autour de la protection des droits de l'homme, de l'État de droit et de la démocratie. À l'échelle internationale, aucune réglementation n'existe pour le moment. Toutefois, les membres du Partenariat mondial pour l'intelligence artificielle se sont engagés en faveur du développement responsable de l'IA.