Texte intégral
M. le président
L'ordre du jour appelle le débat sur le thème : " Mutations liées à l'intelligence artificielle : quelle stratégie pour la France et l'Europe ? "
Ce débat a été demandé par le groupe Les Démocrates, dont je salue les représentants. À la demande de ce dernier, il se tient en salle Lamartine afin que des personnalités extérieures puissent être interrogées.
La conférence des présidents a décidé d'organiser le débat en deux parties. Nous commencerons par une table ronde en présence de personnalités invitées, d'une durée d'une heure, qui donnera lieu à une séquence de questions-réponses, puis, après une intervention liminaire du gouvernement, nous procéderons à une nouvelle séquence de questions-réponses, d'une durée d'une heure également. La durée des questions et des réponses sera limitée à deux minutes, sans droit de réplique.
Pour la première phase du débat, je souhaite la bienvenue à M. Bernard Benhamou, secrétaire général de l'Institut de la souveraineté numérique, ainsi qu'à M. Jean-Marie Cavada, que l'on ne présente pas, en tout cas pour ceux qui sont de ma génération – il est présent en tant que président de l'Institut des droits fondamentaux numériques. Je vais maintenant donner la parole à nos invités, pour une durée de cinq minutes chacun.
(…)
M. le président
La séance est reprise.
Nous en venons à la seconde phase du débat : une séquence de questions-réponses, précédée d'une intervention liminaire du gouvernement.
La parole est à M. le ministre chargé de l'industrie et de l'énergie.
M. Marc Ferracci, ministre chargé de l'industrie et de l'énergie
L'intelligence artificielle n'est plus une perspective lointaine : elle est déjà dans nos usines, dans nos bureaux, dans nos services publics. Elle est au cœur de nos vies quotidiennes et nous concerne tous : salariés, chercheurs, entrepreneurs, élus, citoyens. Elle est en train de redessiner le monde du travail, notre tissu économique et notre souveraineté technologique.
Cette révolution est riche d'un formidable potentiel. En tant que ministre chargé de l'industrie et de l'énergie, je suis bien placé pour le voir et pour agir. Notre combat à nous – le ministre de l'économie, des finances et de la souveraineté industrielle et numérique Éric Lombard, la ministre déléguée chargée de l'intelligence artificielle et du numérique Clara Chappaz, et moi-même – consiste à favoriser l'essor de l'intelligence artificielle en France pour en faire une force au service de la compétitivité de nos industries et au service du bien-être de nos concitoyens.
La France a pris le tournant de l'intelligence artificielle et notre pays compte dans ce domaine, à l'échelle mondiale. On l'a vu avec le sommet sur l'intelligence artificielle qui s'est tenu à Paris – une immense réussite. Ce rendez-vous a marqué une étape clé pour l'avenir de l'IA et pour la construction d'une gouvernance mondiale de l'IA alliant innovation, souveraineté et responsabilité. La France et l'Europe ont un rôle majeur à jouer dans cette révolution et il est de la responsabilité du gouvernement de donner un cap clair pour que cette transformation bénéficie à tous. C'est ce cap que je veux vous décrire en quelques mots.
Depuis 2018, le gouvernement a œuvré activement à faire de la France une puissance de l'intelligence artificielle. En effet, depuis le lancement de la stratégie nationale pour l'intelligence artificielle cette année-là, sous l'impulsion du président de la République, la France a pris des décisions structurantes pour se positionner parmi les leaders mondiaux de l'IA. Grâce à une stratégie nationale ambitieuse, nous avons investi 2,5 milliards d'euros dans la recherche, dans l'innovation et dans l'accompagnement des entreprises. Et les résultats sont là : la France est le premier pays en Europe pour les investissements étrangers dans l'intelligence artificielle ; elle compte plus de 1 000 start-up spécialisées, qui ont levé plus de 1,9 milliard d'euros en 2024 ; nous disposons de fleurons technologiques comme Mistral AI ou Hugging Face, qui s'imposent à l'échelle mondiale ; nous avons attiré les centres de recherche des plus grands acteurs internationaux, d'OpenAI à Google DeepMind.
Mais nous devons aller plus loin encore. C'est la raison pour laquelle le gouvernement a ouvert une troisième phase de la stratégie nationale, autour de plusieurs priorités.
La première est de renforcer l'attractivité du territoire pour l'implantation des infrastructures clés pour l'essor de l'IA. La France a plusieurs atouts majeurs, sinon uniques, à commencer par un mix énergétique largement décarboné grâce à notre parc nucléaire et à nos investissements massifs dans les énergies renouvelables – aujourd'hui, plus de 95% de l'électricité produite en France est décarbonée. Cette énergie abondante et décarbonée est une force pour l'essor de l'IA en France et pour notre attractivité. La France a un autre atout majeur : une connectivité bien supérieure à celle que l'on trouve dans les pays européens voisins, en particulier grâce au développement de la fibre dans le cadre du plan France très haut débit.
Si, à l'occasion du sommet que j'ai évoqué, 109 milliards d'euros d'investissements privés dans les infrastructures stratégiques pour l'IA ont été annoncés, notamment pour soutenir l'installation de nouveaux centres de données en France et le développement de puces plus performantes, c'est la conséquence de ces avantages comparatifs. Ces infrastructures sont essentielles pour améliorer les capacités de calcul et pour accélérer l'essor de l'IA en France et en Europe. En effet, il n'y a pas d'IA sans infrastructures. C'est pourquoi mon ambition, en tant que ministre chargé de l'industrie, est de donner à nos talents et à nos entreprises les meilleures infrastructures possibles pour devenir les champions de l'IA en Europe et dans le monde. Nous y travaillons activement au niveau national, via le plan d'investissement France 2030, et au niveau européen, dans le cadre du règlement européen sur les semi-conducteurs, dit Chips Act.
La deuxième priorité est de cultiver notre écosystème pour attirer et retenir les meilleurs talents. Des entreprises du monde entier s'appuient aujourd'hui sur les compétences scientifiques et d'ingénierie de nombreux talents formés en France, des talents qui disposent d'une renommée internationale. Cet atout est essentiel et nous devons continuer à investir dans la formation, pierre angulaire de la stratégie que mes collègues Élisabeth Borne, Astrid Panosyan-Bouvet et moi-même mettons en œuvre. Ainsi, nous investissons 360 millions d'euros dans nos neuf IA clusters pour atteindre le chiffre de 100 000 personnes formées en 2030.
La troisième priorité est de faire de l'IA un outil au service de nos politiques publiques et au service d'une meilleure efficacité administrative. Notre rôle ici est d'accompagner cette transformation et d'y sensibiliser nos concitoyens, car l'intelligence artificielle est un outil qui doit être maîtrisé et encadré – je sais que vous en avez abondamment discuté au cours la table ronde qui a précédé. C'est le sens, par exemple, des cafés IA, qui permettent à tous de se retrouver pour apprendre et pour débattre des enjeux du quotidien liés à l'intelligence artificielle.
Mais parce que l'IA est un enjeu stratégique qui dépasse les frontières, c'est aussi en Européens que nous devons agir – ce qui fera l'objet de mon deuxième point. Avec l'Europe, nous dessinons une troisième voie pour une IA à la fois souveraine, responsable et durable. C'est une question de compétitivité, de leadership et de souveraineté économique. Nous ne pouvons pas nous contenter de réguler des innovations conçues ailleurs : nous devons être à la source des avancées technologiques en la matière.
L'Europe, par la voix de la présidente de la Commission européenne, a ainsi annoncé 200 milliards d'euros d'investissements, notamment 50 milliards d'investissements publics dont 20 milliards dédiés à la construction de gigafactories spécialisées dans l'entraînement de modèles d'IA de grande envergure. L'Europe a aussi manifesté sa volonté d'accélérer la simplification pour faciliter l'innovation en matière d'intelligence artificielle. À cette fin, nous devons réussir une mise en œuvre équilibrée de la réglementation relative à l'IA.
Dans le même temps, nous devons promouvoir une approche éthique et durable de cette technologie, car il faut être lucide, notamment sur l'impact écologique de l'intelligence artificielle. Les modèles de plus en plus puissants qui se développent nécessitent des quantités d'énergie qui doivent rester compatibles avec nos objectifs climatiques. Nous devons donc encourager une IA plus frugale, plus optimisée, qui consomme moins de ressources et réduit d'autant son empreinte environnementale. Ainsi, lors du sommet de Paris, une centaine de partenaires ont rejoint la coalition pour l'IA durable sur le plan environnemental, lancée par la France, le Programme des Nations unies pour l'environnement et l'Union internationale des télécommunications. Le sommet a en outre été l'occasion de lancer la fondation Current AI, soutenue par neuf gouvernements et plusieurs entreprises technologiques, et dotée d'un financement initial de 400 millions d'euros pour développer des projets d'IA d'intérêt général.
En conclusion, je tiens à vous dire qu'il y a aujourd'hui la place pour un modèle français et européen de l'intelligence artificielle. C'est une révolution, je l'ai dit, porteuse d'un formidable potentiel, mais cette révolution nous oblige. Nous avons une responsabilité véritablement historique : il s'agit de façonner une IA qui nous ressemble, une IA qui soit fidèle à nos valeurs, une IA qui renforce notre souveraineté tout en créant des opportunités pour tous. La France a tous les atouts pour être un leader mondial en la matière, mais elle ne peut réussir seule. C'est la raison pour laquelle nous devons agir en Européens, en soutenant une IA européenne qui conjugue excellence scientifique, innovation industrielle et encadrement éthique. Le gouvernement est pleinement mobilisé pour faire de cette révolution une force de progrès, d'émancipation et de justice ; nous nous donnerons tous les moyens pour que l'IA mondiale porte la voix de cette Europe à la fois forte et ambitieuse.
M. le président
La parole est à Mme Josy Poueyto.
Mme Josy Poueyto (Dem)
L'actualité récente a montré une nouvelle fois à quel point la France et l'Europe ont intérêt à se saisir du développement de l'intelligence artificielle. Face aux géants américains, qui ont choisi de foncer sans s'encombrer de questions morales ou éthiques, je pense que nous avons une carte particulière à jouer.
En effet, l'objectif est que l'IA soit utilisée pour rendre les meilleurs services possibles aux populations. Pour asseoir les usages, il est obligatoire, selon moi, que se concrétise un lien de confiance particulièrement fort entre l'usager et la machine. Pour maintenir la confiance, il paraît essentiel de garantir une conception et une utilisation éthiques de l'IA. La régulation, autrement dit le cadre réglementaire applicable à l'IA, doit non seulement assurer une conception et un développement technologique empreints d'un très grand sens des responsabilités, mais aussi assurer une croissance économique durable.
Dans le domaine sanitaire, par exemple, où il serait délicat de faire n'importe quoi, la garantie de résultat va de soi. Siégeant à la commission de la défense, je vois bien, dans les domaines de l'information et de la communication, voire dans ceux de l'influence ou du renseignement, les menaces susceptibles de peser tant sur les individus que sur les sociétés en général et les démocraties en particulier.
Ma question est toute bête mais je ne suis pas la seule à la poser. Alors que les réseaux dits sociaux nous exposent déjà à des abus majeurs que nous ne parvenons pas à prévenir, comment allons-nous faire face à des outils déployés à une échelle planétaire et capables d'aller plus loin encore dans la manipulation du " temps de cerveau disponible ", pour reprendre la formule utilisée à propos de la télévision par Patrick Le Lay quand il était à la tête de TF1 ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Parce qu'elle porte sur l'appropriation de l'IA par nos concitoyens et par les entreprises, il s'agit d'une question essentielle, à laquelle il y a trois niveaux de réponse. Le premier est celui de la formation et de l'éducation. Dans mon propos liminaire, j'ai évoqué un dispositif parmi d'autres : les cafés IA, qui permettent de s'approprier les outils de l'intelligence artificielle dans un cadre coopératif et convivial. J'y ajoute l'annonce faite par la ministre de l'éducation nationale, Élisabeth Borne, à propos de la formation à l'IA dès le collège. Cela participe à ces nécessaires appropriation et éducation.
Le deuxième niveau de réponse consiste à prévenir et rassurer nos concitoyens au sujet des contenus de l'IA auxquels ils sont confrontés. Un des enjeux est la dissimulation de contenus présentés comme réels alors qu'ils ne le sont pas. Sur ce point, les législations française et européenne ont évolué. La loi visant à sécuriser et à réguler l'espace numérique (Sren) a introduit l'obligation de mentionner les deepfakes issus de l'intelligence artificielle, tandis que le règlement européen sur l'intelligence artificielle oblige à signaler les moments où les usagers interagissent avec une IA. Cela participe à la prévention et à la réassurance que nous devons à nos concitoyens.
Le troisième niveau de réflexion et d'action – et donc de protection, dans une certaine mesure – porte sur l'ergonomie des applications. Pour reprendre la formule que vous avez utilisée, on sait que certaines applications prennent du temps de cerveau disponible, favorisent l'addiction et créent une forme de déconnexion d'avec la réalité. Il faut donc favoriser une conception et une ergonomie des applications qui limitent ces phénomènes. Voilà quels peuvent être nos axes de réflexion et d'action.
M. le président
La parole est à M. Nicolas Sansu.
M. Nicolas Sansu (GDR)
Je ne vais pas m'appesantir sur le surprenant exercice d'autosatisfaction du ministre, très éloigné de la réalité qui ressort des chiffres mondiaux et de ce que les intervenants précédents ont avancé.
La course technologique entre OpenAI et DeepSeek fait de l'IA le nouveau terrain d'affrontement de la guerre commerciale entre les États-Unis et la Chine. Force est de le constater, l'Europe est à la traîne, d'autant plus que, à la suite des menaces exprimées par l'administration Trump, la Commission européenne vient de retirer la directive sur la responsabilité en matière d'IA de son programme de travail final pour 2025.
Ainsi que l'ont indiqué MM. Benhamou et Cavada, c'est aujourd'hui le risque de vassalisation, de technoféodalisme, pour reprendre le concept des économistes Yanis Varoufakis et Cédric Durand, qui nous menace. Nous n'avons donc qu'une interrogation : comment sortir de la tentation technoféodale et faire de l'IA un vecteur d'émancipation sociale ?
Cela m'amène à demander au gouvernement de préciser sa position sur trois points. Premièrement, comme le préconise un récent rapport du Conseil économique, social et environnemental, intitulé " Pour une IA au service de l'intérêt général ", nous devons défendre dans la réglementation européenne la plus grande transparence des algorithmes et des jeux de données d'entraînement. Cette réglementation devrait renforcer l'accès direct des citoyens à leurs propres données et améliorer la traçabilité des données pour que puissent être retracées les transformations qu'elles ont subies. Nous pourrions par exemple parler du Health Data Hub, livré aux Américains contre toute logique de souveraineté – cela a été rappelé dans la première phase du débat.
Deuxièmement, comment assurer, face à OpenAI et à DeepSeek, la protection des données personnelles ? Quelles doivent être les modalités d'utilisation, de réutilisation et de rectification des données personnelles publiées sur le web et servant à l'entraînement de l'IA ? Monsieur le ministre, on ne saurait se contenter d'incantations comme celles que vous avez formulées tout à l'heure.
Troisièmement, on sait, documents à l'appui, qu'à Madagascar ou au Kenya, les petites mains de l'IA sont payées moins de 2 dollars par heure pour perfectionner les résultats des recherches. On sait aussi qu'une simple question posée à ChatGPT consomme un demi-litre d'eau et que les besoins en électricité des data centers devraient doubler dans les deux ans. Ma question est donc simple : comment comptez-vous rendre les logiques industrielles de l'IA compatibles avec les objectifs de décarbonation, alors que les États-Unis et la Chine s'en contrefichent ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Je ne sais pas très bien quel contenu donner à cette notion de technoféodalisme, mais peut-être aurons-nous l'occasion d'en discuter. Je ne pense pas que la vassalisation que vous évoquez soit une fatalité. Vous avez mentionné DeepSeek. Il s'agit à mes yeux d'un modèle technologique qui valide les choix faits par des acteurs français de l'IA, comme Mistral AI. Le choix de l'open source, par exemple, nous distingue des solutions technologiques adoptées par certains acteurs américains. Il n'y a pas de fatalité dès lors que l'on crée de la souveraineté à travers l'infrastructure. Je l'ai dit dans mon propos liminaire, l'infrastructure est un élément indispensable pour faciliter l'appropriation de l'IA par les entreprises et pour permettre de créer du cloud souverain. Évidemment, il faut articuler cela avec les réglementations française et européenne.
À propos des données, comme vous le savez, le règlement européen sur l'IA distingue plusieurs niveaux de risque auxquels sont attachés plusieurs niveaux d'obligations juridiques et de contraintes. Cela permet d'éviter de traiter tous les problèmes de la même manière et d'éviter de construire des garde-fous juridiques qui, parce que trop puissants et trop contraignants, limiteraient l'innovation. Nous avons besoin d'une régulation européenne qui s'appuie sur les initiatives et les textes existants, comme le DSA et le DMA. Nous travaillons au niveau européen sur une régulation des clouds qui soit le pendant du SecNumCloud français. À cet égard, nos exigences vis-à-vis de la Commission européenne sont fortes.
Je termine avec l'enjeu de la décarbonation – même s'il est difficile de répondre à trois questions en deux minutes. Lorsqu'on va sur le terrain comme je le fais, lorsqu'on visite des data centers installés en France, on constate que beaucoup ont fait le choix de solutions respectueuses de l'environnement, tel le recyclage, dans les collectivités avoisinantes, d'une partie de la chaleur qu'ils produisent. C'est le cas d'un data center qui vient d'ouvrir à Meudon. Là non plus, il n'y a aucune fatalité à ce que l'aspect énergivore des data centers fasse obstacle à la décarbonation.
M. le président
La parole est à M. Arnaud Saint-Martin.
M. Arnaud Saint-Martin (LFI-NFP)
J'ai une série de questions à propos des mutations du numérique au lendemain du Sommet pour l'action sur l'IA, qui s'est achevé par des annonces que vous avez rappelées. Si l'on peut convenir qu'il faut exiger une réévaluation critique de notre prise de conscience collective sur cette technologie qui se déploie presque sans limites, force est de constater que le compte n'y est pas. Plusieurs contradictions inquiètent tout autant sur la nature des solutions proposées que sur les conditions de leur mise en œuvre.
Dans la frénésie de la course à l'IA, les citoyens sont aux abonnés absents, et le scénario qui s'annonce – technologie partout, démocratie nulle part – mériterait un débat plus solide et plus sérieux. J'en veux pour preuve que, sous couvert de simplification dans le cadre de la loi relative à l'industrie verte, les trente-cinq data centers dont la création a été annoncée échapperaient à une enquête publique. On sait pourtant qu'en l'absence de cadre d'arbitrage clair, ils suscitent des conflits d'usage. Et je ne parle pas de leur financement par des fonds étrangers – dont l'émirien MGX, par ailleurs engagé dans le projet américain Stargate –, un choix pour le moins discutable à l'heure où la souveraineté numérique est érigée en priorité.
Dans un autre registre, on s'étonne de voir Google participer à l'initiative Current AI, lancée lors du sommet, alors que cette entreprise abandonne tout engagement éthique en matière d'armement. N'est-il pas plutôt temps de défendre avec vigueur l'IA Act, le DSA et le DMA adoptés par l'Europe mais déjà menacés ?
De même, en France, l'IA met à mal la cohérence des politiques publiques. Sans même s'étendre sur l'improvisation à prétention pédagogique et le pillage des données qu'entraîneraient les cours sur ChatGPT annoncés par le ministère de l'éducation nationale pour la rentrée prochaine, comment ne pas noter qu'au même moment, des milliers de postes de conseillers numériques sont sur la sellette, alors que l'inclusion numérique est en grande souffrance dans notre pays ?
Enfin, se pose avec urgence la question de la cohérence démocratique à donner au développement de l'IA, qui ne saurait se faire dans le dos des citoyens. Plutôt que céder aux sirènes des Gafam-X et de leur technoféodalisme prédateur, n'est-il pas vital d'encourager des technologies conçues en France, comme Scikit-learn, à même de nous assurer autonomie et indépendance sur les créneaux interconnectés du numérique ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Comme je l'ai dit dans ma réponse à M. Sansu, il faut évidemment défendre la régulation européenne. C'est pourquoi j'ai parlé du DSA, du DMA et du projet de certification européenne pour les services de cloud (EUCS). Par ailleurs, il est primordial de se prémunir contre l'extraterritorialité de certaines législations, notamment de la législation américaine. C'est un risque auquel s'exposent certains acteurs, même si leurs données sont stockées sur des clouds localisés en Europe ou en France. Il s'agit d'un point des discussions autour de l'EUCS, sur lequel nous exerçons toute notre vigilance.
À propos de l'usage de l'IA à l'éducation nationale, je pense que, à un moment où l'illectronisme et l'illittératie touchent malheureusement un grand nombre de nos concitoyens, il ne faut se priver d'aucune source ni d'aucune piste susceptible d'améliorer l'efficacité des programmes d'enseignement. Je suis enseignant – même si cela fait longtemps que je n'ai pas donné de cours dans un cadre universitaire – et je suis parfois frappé par la réticence, voire le dogmatisme, avec lesquels on repousse des solutions qui apportent des améliorations considérables aux modalités pédagogiques. Il ne faut se priver de rien, il faut tout évaluer, avec les acteurs et avec les enseignants. Je suis persuadé que, pour prendre à bras-le-corps les problèmes d'illittératie, d'illectronisme et d'innumérisme, il faut aussi aller chercher du côté de ces solutions.
M. le président
La parole est à Mme Céline Calvez.
Mme Céline Calvez (EPR)
Monsieur le ministre, vous avez parlé de la nécessité pour toute la société, que ce soit dans le monde du travail ou dans l'exercice de nos droits démocratiques, de mieux comprendre l'IA, de mieux s'en saisir. Vous avez parlé d'initiatives comme les cafés IA ou, à l'instant, de celles prises par l'éducation nationale. Pour ma part, je veux citer l'exemple d'une nation européenne, la Finlande, où, dès 2017, le gouvernement et les entreprises privées se sont donné comme objectif de créer des modules pour former 1% de la population aux enjeux de l'IA. Cet objectif a été dépassé et, de plus, ces modules ont été mis à disposition dans toutes les langues européennes. Ils sont assez facilement accessibles. La France pourrait-elle se fixer la même ambition ? Dans la mesure où l'IA touche tous les métiers, pourrions-nous intégrer des modules incontournables de sensibilisation à l'IA dans les formations financées grâce au compte personnel de formation (CPF) ?
Je tiens à souligner le succès de la France dans l'accueil des chercheurs et de l'innovation IA de plusieurs entreprises. Plusieurs facteurs l'expliquent : le talent de nos propres chercheurs, l'accès à l'énergie, peut-être aussi la qualité de vie. Que savons-nous du rôle de dispositifs comme le crédit d'impôt recherche (CIR) ? Que faut-il préserver pour maintenir cette attractivité dont nous pouvons être fiers ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
L'appropriation de l'IA par nos concitoyens est un enjeu important. Je ne reviens pas sur les cafés IA, que vous avez évoqués. Un autre enjeu est son appropriation par les entreprises. À cette fin, plusieurs dispositifs ont été lancés dans le cadre de la stratégie nationale pour l'IA et financés notamment par le plan France 2030. Je pense en particulier au programme IA Booster, qui a déjà permis d'accompagner des très petites, petites et moyennes entreprises (TPE et PME). Il faut multiplier ces initiatives, mais aussi les évaluer, car tout n'est pas nécessairement efficace.
Le recours au CPF est effectivement une piste intéressante, qui mérite d'être poursuivie, car il s'agit d'un dispositif souple que se sont approprié nombre de nos concitoyens – c'est un succès de ce point de vue. Identifions les modules les plus efficaces – j'ignorais l'exemple finlandais que vous avez cité – afin de certifier ceux qui ont fait leurs preuves pour qu'ils deviennent éligibles au CPF.
Dans le public comme dans le privé, favoriser l'attractivité d'une IA innovante fondée sur la science et la recherche suppose de conserver certains dispositifs essentiels : nos entreprises, en particulier celles qui développent l'IA générative, s'appuient très fortement sur le CIR, par exemple. Il faut absolument le préserver, ce que nous avons fait en dépit du cadre budgétaire très contraint qui est le nôtre.
M. le président
La parole est à M. Philippe Latombe.
M. Philippe Latombe (Dem)
Il y a un éléphant dans la pièce, donc je mets les pieds dans le plat : la plateforme des données de santé, encore appelée Health Data Hub, est hébergée par Microsoft. Du fait de l'extraterritorialité du droit américain, on peut s'étonner que ces données sensibles à haute valeur ajoutée soient confiées à cette entreprise. Il y a plus de trois ans et demi, Olivier Véran, ministre des solidarités et de la santé, s'était engagé devant l'Assemblée et le Sénat à organiser la réversibilité de ces données vers un cloud souverain. Or celle-ci n'a même pas commencé !
Dès lors, quelle cohérence attribuer au discours gouvernemental prônant la souveraineté numérique ? Comment croire, comme on nous l'a expliqué lors du sommet sur l'IA, que le déploiement de data centers sur le territoire national pourra garantir la souveraineté de l'État à l'égard des données hébergées, alors même que le groupement d'intérêt public (GIP) Health Data Hub semble très rétif à mettre en œuvre la réversibilité annoncée ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Le Health Data Hub est une plateforme qui centralise et facilite l'accès aux données de santé pour les chercheurs – j'y insiste – tout en respectant des normes de confidentialité et de sécurité. Son potentiel en tant que support de la recherche en IA est donc très important.
Vous êtes familier des enjeux de souveraineté, puisque vous aviez présenté un amendement au projet de loi Sren visant à contraindre les opérateurs publics à faire migrer leurs données vers des solutions souveraines. Dans ce domaine très sensible des données de santé, nous devons nous assurer que l'on arrive au bout de l'exercice. Nous devons nous assurer que le Health Data Hub favorise l'interopérabilité en utilisant des standards communs.
Il faut aussi, en procédant par tâtonnements, éviter l'apparition de nouveaux usages de données sensibles. J'y suis très attaché car, dans ma vie précédente, par exemple lorsque je travaillais sur le centre d'accès sécurisé aux données (CASD) de l'Insee, j'ai pu constater des angles morts échappant à la régulation, ce qui ouvrait parfois des brèches dans la confidentialité des données. Il faut se montrer très vigilants à cet égard. C'est en travaillant avec les chercheurs et les instances de régulation, dont la représentation nationale fait partie, que nous trouverons des solutions sur ce point.
M. le président
La parole est à Mme Élisa Martin.
Mme Élisa Martin (LFI-NFP)
" Mutations liées à l'intelligence artificielle : quelle stratégie pour la France et l'Europe ? " J'ose une réponse : en s'affranchissant du respect des libertés fondamentales et des droits afin de permettre au privé de réaliser un maximum de profits !
Je vise en particulier la notion de bac à sable réglementaire, censée favoriser l'innovation en la dispensant de respecter l'ensemble du cadre réglementaire. Elle permet en fait une innovation sans entrave, au détriment des droits et des libertés fondamentales. Ce dispositif est évidemment plébiscité par les acteurs privés et prend une telle ampleur qu'il affecte désormais le pilotage de la recherche publique, laquelle devrait viser non pas le profit mais bien l'intérêt général.
Quelle limite entendez-vous fixer à la remise en cause de nos libertés ? Que pensez-vous de cette notion de bac à sable réglementaire ? Imaginez-vous que l'on puisse attenter au droit d'aller et venir ou à la liberté d'opinion ? Petit à petit, le gouvernement promeut et organise la surveillance généralisée – pardonnez-moi de m'exprimer sans ambages mais nous sommes pressés par le temps. Les Jeux olympiques ont été l'occasion de tester la surveillance algorithmique et nous sommes fondés à croire que vous souhaitez instaurer la reconnaissance faciale dans l'espace public. Les promoteurs du bac à sable réglementaire se montrent d'ailleurs très critiques à l'égard des dispositions – pourtant loin d'être les plus protectrices – du règlement européen sur l'IA.
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Vous brossez un tableau assez sombre.
Mme Élisa Martin
Mais tellement réaliste !
M. Marc Ferracci, ministre
Pas tant que cela, si l'on veut bien tenir compte des régulations, des protections et des garde-fous déjà en vigueur. C'est pour moi l'occasion d'évoquer de manière plus détaillée le règlement européen sur l'intelligence artificielle, car il répond selon moi à un grand nombre de vos préoccupations et objections.
Ce règlement est fondé sur une hiérarchie ou pyramide des risques. Ainsi, les applications qui présentent des risques minimaux ne doivent donner lieu à aucune obligation réglementaire – citons, par exemple, les algorithmes qui recommandent des playlists musicales. À l'échelon suivant, on trouve les applications – certaines sont très populaires et bien connues – qui doivent respecter une obligation de transparence à l'égard des citoyens ainsi qu'une obligation de transparence algorithmique. Viennent ensuite les applications plus invasives, présentant des risques plus importants, telles que celles qui sont utilisées dans le cadre de procédures de recrutement, qui peuvent poser des problèmes considérables du point de vue des libertés publiques ; des obligations réglementaires plus strictes s'imposent à elles. Enfin sont définis les risques inacceptables, liés aux usages de l'IA permettant la surveillance de masse au moyen de la reconnaissance faciale ; dans ce cas, les obligations sont plus importantes encore et confinent à l'interdiction.
Ce règlement prévoit donc une gradation. Peut-être y a-t-il des améliorations à y apporter, mais je constate qu'il traite déjà des exemples que vous avez cités.
Mme Élisa Martin
Vous ne m'avez pas répondu au sujet du bac à sable réglementaire !
M. le président
De nombreux collègues souhaitent encore poser des questions, madame Martin. Je propose que nous passions à la question suivante.
La parole est à M. Nicolas Bonnet.
M. Nicolas Bonnet (EcoS)
On parle beaucoup de l'IA, comme on réciterait un mantra, sans entrer dans les détails. En réalité, l'IA est très diverse et les différentes applications ne sont guère comparables, selon que l'on parle de ChatGPT, outil conversationnel se comportant presque comme un humain, des applications de modification d'images ou de vidéos – posant la question de leur crédibilité – ou des applications de traitement de données à des fins statistiques ou épidémiologiques.
Vous avez parlé d'une approche française et européenne de l'IA. Qu'est-ce qu'une IA qui serait fidèle à nos valeurs ? Quels objectifs assigne-t-on à l'IA que nous souhaitons développer ? On ne pourra pas tout faire à la fois, il faut nécessairement fixer des priorités, ne serait-ce que parce qu'il faut limiter le nombre de data centers qui consomment de l'énergie et des matières premières – quand bien même ils consommeraient le moins de ressources possibles.
D'autre part, qu'entendez-vous par IA souveraine ? Comment pouvez-vous évoquer la souveraineté d'une seule application informatique alors que nous sommes à mille lieues de la souveraineté numérique en général ? Nous sommes en effet très dépendants des ordinateurs, des disques durs et des microprocesseurs produits à l'étranger : rien n'est fabriqué en France ou en Europe. S'agissant des applications, tout ou presque passe par les Gafam – jusqu'au système de messagerie de l'Assemblée nationale, qui appartient à Microsoft, même si les données sont hébergées sur des serveurs propriétaires au sein de l'institution. La plupart des citoyens français utilisent les outils, le matériel et les applications des Gafam, dont nous sommes très dépendants.
Bref, je ne connais pas la stratégie de la France ou de l'Europe afin d'acquérir une autonomie numérique et de se doter d'applications propres, mais je ne conçois pas que l'on puisse évoquer une IA souveraine en l'absence de souveraineté numérique.
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Vous posez plusieurs questions. Quelles infrastructures utiliser en priorité ? Ce n'est pas une question simple et cela doit faire l'objet d'un débat, y compris devant la représentation nationale. On peut néanmoins distinguer, d'une part, les applications développées et commercialisées pour répondre aux besoins des consommateurs – nous avons donné quelques exemples d'applications de l'IA utilisées dans la vie quotidienne – et, d'autre part, les applications développées à des fins d'intérêt général, notamment celles qui permettent d'améliorer l'efficacité des services publics, par exemple en réduisant la pénibilité des tâches effectuées par les agents tout en renforçant l'intérêt de ces tâches – le potentiel en la matière est important, et cela peut d'ailleurs concerner aussi les salariés du privé.
Quant à la souveraineté, dont nous débattons depuis tout à l'heure, elle ne concerne pas que les data centers et les applications, mais aussi les puces électroniques : les processeurs graphiques (GPU) sont tous produits par des acteurs américains et il n'existe aujourd'hui aucune solution alternative européenne ni, a fortiori, française. Nous avons donc besoin d'une politique industrielle en la matière, qui permette à terme de disposer de l'ensemble des infrastructures de l'IA sur notre sol. Le Chips Act est une première étape, et la réflexion doit se poursuivre au-delà. En tout cas, cela suppose des investissements dans les data centers et, de manière plus générale, dans les infrastructures industrielles – d'où les 200 milliards d'euros annoncés par la Commission européenne, que j'ai évoqués précédemment.
M. le président
La parole est à M. Laurent Croizier.
M. Laurent Croizier (Dem)
L'IA bouleverse déjà le monde du travail, et nous n'en sommes qu'aux balbutiements. Si nous n'anticipons pas les mutations et la disparition de nombreux métiers, notre modèle social court au-devant de très grandes difficultés. Il n'est pas facile d'intervenir au bon moment, ni trop en avance ni avec retard. Comment l'État veille-t-il sur ces mutations ? Comment anticipe-t-il les transformations profondes induites par l'IA dans le monde du travail, notamment en matière d'offre de formation initiale et de formation professionnelle ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Il s'agit d'une question essentielle qui, sans aucun doute, préoccupe beaucoup nos concitoyens. Je ne me ferai pas passer pour le spécialiste de l'IA que je ne suis pas, mais je vous répondrai en m'appuyant sur l'étude du fonctionnement du marché du travail que j'ai pu mener dans ma vie professionnelle.
Nous avons connu, depuis le XIXe siècle, plusieurs révolutions technologiques dont on prédisait qu'elles supprimeraient des emplois par millions – qu'on songe aux canuts lyonnais ou au mouvement luddite dans l'Angleterre georgienne. Toutes ces craintes – qu'on pourrait qualifier de millénaristes – de voir la fin du travail et la disparition des emplois se sont révélées infondées. Je pense qu'elles ne se concrétiseront pas davantage s'agissant de l'IA. La plupart des études dont nous disposons prévoient une modification du contenu des emplois sous l'effet de l'IA plutôt que leur disparition.
Dans une étude publiée le 14 janvier 2024, le Fonds monétaire international souligne que 60% des emplois pourraient être affectés par l'IA – ce qui ne signifie pas qu'ils disparaîtront. Pour le dire plus directement, il est plus probable d'être remplacé, dans son métier, par quelqu'un qui maîtrise un logiciel d'intelligence artificielle que par l'intelligence artificielle elle-même.
Si l'on souhaite aller plus loin et esquisser les conséquences de l'IA sur le marché du travail, il faut mentionner les importants gains de productivité potentiels, qui intéressent beaucoup les entreprises. Toutefois, deux conditions doivent être remplies pour les obtenir.
Premièrement, les entreprises doivent investir, ce qui implique de leur créer un environnement sûr et d'investir dans des solutions souveraines et des data centers sur notre sol. C'est un élément important et souvent évoqué par les clients des data centers, car l'IA permettra d'autant plus de gains de productivité qu'elle s'appuiera sur les données propres à l'entreprise, plutôt que sur des données généralistes.
Deuxièmement, pour qu'une innovation technologique, quelle qu'elle soit, procure des gains de productivité, il est nécessaire non seulement d'investir – s'agissant de l'IA, dans les infrastructures et les logiciels –, mais aussi de réorganiser le travail. Cela requiert de s'interroger sur le dialogue social, sur la négociation collective et sur la manière dont les entreprises investissent dans la formation. Sans cet investissement dans la formation, les entreprises n'obtiendront pas les gains de productivité escomptés.
M. le président
La parole est à M. René Pilato.
M. René Pilato (LFI-NFP)
Cela fait plaisir, monsieur le ministre, de vous voir si optimiste à propos de l'IA en France. Pourtant, un rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (Opecst) sur les nouveaux développements de l'intelligence artificielle, publié en novembre 2024, souligne que, si Mistral AI figurait parmi les dix modèles de langage les plus puissants en juillet 2024, il n'y figurait plus en novembre. Nous connaissons donc un recul en ce qui concerne la technologie d'intelligence artificielle elle-même.
Je rejoins les deux collègues qui ont posé la question de la souveraineté. Même l'acteur superdominant du secteur, les États-Unis, ne maîtrise pas la chaîne de valeur permettant de produire l'intelligence artificielle : ils dépendent encore largement de la fabrication de puces à l'extérieur de leur territoire. La question est donc simple : alors que nous accusons déjà un retard en matière numérique, sommes-nous réellement capables d'avoir en France la totalité de la chaîne de valeur liée à l'intelligence artificielle, à savoir les matières premières, l'énergie, les semi-conducteurs, les processeurs, le stockage des données, les supercalculateurs, les logiciels d'entraînement, les modèles de fondation, le réglage fin et les applications ? Si l'on considère que la souveraineté ne peut être atteinte qu'au niveau européen, serez-vous en mesure d'organiser un partage de cette chaîne de valeur avec les autres pays européens, tout en garantissant que chaque pays puisse contribuer à cette souveraineté ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Vous avez conclu votre question en apportant une partie de la réponse. La souveraineté ne revient pas à tout produire sur notre sol, ni a fortiori à tout extraire de notre sol. La souveraineté signifie, dans mon esprit, rester maître de son destin et, s'agissant des chaînes de valeur, ne pas dépendre d'un seul fournisseur ou d'un unique gisement de ressources naturelles. Il s'agit de l'enjeu crucial de la diversification des fournisseurs, qui n'est pas acquise aujourd'hui – j'ai évoqué le cas des GPU qui sont, à l'heure actuelle, uniquement produits aux États-Unis. Nous devons donc progressivement nous " dérisquer ", pour reprendre un terme employé par les industriels, à l'égard de fournisseurs qui domineraient tel ou tel segment de la chaîne de valeur – cela concerne à la fois le hardware et le software, c'est-à-dire les matériels informatiques et les logiciels.
Indépendamment de cette diversification, des marges de progression existent. S'agissant de l'extraction minière, nous avons une stratégie qui vise à nous rendre plus autonomes – j'ai ainsi relancé, il y a quelques semaines, l'inventaire minier mené par le Bureau de recherches géologiques et minières (BRGM).
Pourrons-nous avoir demain l'ensemble de la chaîne de valeur de l'IA sur notre territoire ? Je réponds clairement à votre question : ce n'est pas évident. Mais je le répète, de mon point de vue, l'enjeu est de ne pas être dépendants plutôt que de tout produire sur notre sol.
M. le président
La parole est à Mme Delphine Lingemann.
Mme Delphine Lingemann (Dem)
La question de l'usage de l'intelligence artificielle dans l'éducation me tient particulièrement à cœur, d'autant que je suis membre de la commission des affaires culturelles et de l'éducation. En tant qu'enseignante, je mesure au quotidien l'ampleur des changements qui s'opèrent à la fois dans les méthodes d'apprentissage mises en œuvre par les enseignants et dans l'utilisation de l'IA par les étudiants et les élèves. L'appropriation de cette technologie par chacun de ces publics est plus ou moins maîtrisée, ce qui limite son efficacité.
Je suis convaincue que le monde de l'éducation doit saisir l'occasion que lui offre l'IA. Mais le risque est que les enseignants comme les élèves s'appuient trop sur ces outils et n'utilisent plus leur propre créativité ni leur imagination. Je constate au quotidien que nombre d'étudiants se trouvent en difficulté quand on leur demande de réfléchir à partir d'une page blanche, sans aide numérique. Or c'est tout le rôle de l'enseignement en présentiel que de stimuler l'étudiant pour l'aider à penser par lui-même.
Comment faire en sorte que l'usage de l'IA soit une source de progrès en matière d'apprentissage, qui ne mette pas en danger la capacité de nos jeunes à faire preuve d'esprit critique et de synthèse ? Comment généraliser l'usage d'un outil de détection du plagiat qui permette aux enseignants de repérer si un texte soumis par un étudiant a été rédigé avec l'aide d'une IA ?
M. le président
La parole est à M. le ministre.
M. Marc Ferracci, ministre
Je me remémorais mon expérience d'enseignant confronté à des travaux qui ressemblaient de très près à des plagiats, et les difficultés que l'on a à résoudre ce genre de problème.
Vous posez une question fondamentale, qui a été soulevée dans un ouvrage au titre assez éclairant, La Fin de l'individu, publié par le philosophe Gaspard Kœnig. C'est un livre consacré à l'intelligence artificielle qui s'interroge sur la potentielle disparition de la subjectivité, sous l'effet de l'IA, dans les méthodes d'apprentissage et l'appropriation des connaissances ainsi que dans la création artistique et de nombreux autres domaines. En effet, l'IA, à la façon du nudging – méthode d'incitation issue de l'économie comportementale –, trace des voies, influence les actions individuelles et façonne la personnalité, de telle sorte que la construction même de l'individu se trouve remise en question. C'est un danger vertigineux dont il faut se prémunir.
Je vais être franc : je n'ai pas de réponse définitive à votre question. Il convient d'organiser sur ces sujets un débat démocratique, scientifique et peut-être philosophique.
De façon pragmatique, s'agissant des méthodes pédagogiques, il est bon de ne pas mettre tous ses œufs dans le même panier. Je suis très attaché à la méthode à l'ancienne, mais on peut la mêler à des approches novatrices et s'appuyer sur l'IA. Il s'agit en particulier de favoriser les interactions sociales, car c'est, vous le savez, l'une des conditions d'un apprentissage réussi. Je pense notamment au travail en groupe ou à l'appropriation de certains codes et conventions, y compris par mimétisme. C'est de cette manière qu'il convient d'associer l'IA à l'éducation ; bien évidemment, il ne faut pas se laisser guider uniquement par des algorithmes.
M. le président
Le débat est clos.
Source https://www.assemblee-nationale.fr, le 11 mars 2025