Régulation américaine sur l’IA : perspectives au niveau du gouvernement fédéral et de l’Etat de Californie.

Capture d’écran 2023-12-28 à 12.59.22

L’intelligence artificielle (IA) et le Machine Learning sont devenus incontournables dans nos activités quotidiennes, particulièrement depuis que les technologies d’IA sont devenues accessibles au grand public, avec la mise à disposition de ChatGPT en novembre dernier [1]. 

 

Depuis lors, les solutions d’IA se multiplient, mais ne sont pas exemptes de risques et de préoccupations éthiques. De manière concise, voici quelques-unes de ces préoccupations : l’utilisation abusive de l’IA, qui pourrait être détournée par des individus malveillants pour créer des armes ou provoquer des pandémies [2]; la propagation de la désinformation en ligne grâce à des contenus générés par l’IA [3]; les biais présents dans les algorithmes, qu’il s’agisse de décisions de prêt ou de processus d’embauche, par exemple [4]; la protection des données, en particulier dans le domaine de la santé [5]; et enfin, le potentiel remplacement de travailleurs par des systèmes automatisés d’IA, ce qui pourrait entraîner des pertes d’emploi, voire la disparition de catégories entières de métiers [6].

 

Le Congrès américain s’empare du sujet.

En juin 2023, le Parlement européen a franchi une étape significative en approuvant sa propre version du projet de loi de l’UE sur l’intelligence artificielle, l’AI Act. Ce projet de loi vise à établir le tout premier cadre législatif complet pour réglementer l’IA en Europe. Cependant, de l’autre côté de l’Atlantique, les États-Unis ne sont encore qu’au stade de l’élaboration de mesures concernant l’IA, et ces mesures ne sont pas aussi exhaustives, que ce soit au niveau fédéral ou au niveau des États. Concernant l’AI Act, des trilogues (réunions tripartites sur les propositions législatives entre le Parlement, le Conseil et la Commission) sont en cours pour finaliser le projet de loi, avec un dernier trilogue prévu en octobre. Les projections les plus optimistes prévoient l’adoption du texte final d’ici la fin de 2023, en vue d’une mise en application complète en 2026.[7]

Le Congrès américain n’a précédement voté que peu de lois sur l’IA. La législation la plus avancée sur le sujet [8] est le National Artificial Intelligence Initiative (NAII) Act of 2020. Cette loi vise surtout à définir le rôle du gouvernement dans le développement de l’IA. Elle ne propose pas un cadre de régulation globale de l’IA et ne tient pas compte des récents progrès en matière d’IA, notamment l’IA générative [9]. 

 

Pour y remédier, les auditions sur le sujet et les propositions de lois se multiplient, avec notamment en mai 2023 l’audition de Sam Altman, PDG d’OpenAI [10]. En réponse à ces consultations, le sénateur Chuck Schumer, leader de la majorité et très impliqué sur ces questions, a annoncé (i) une législation américaine dans les mois à venir, (ii) la création d’un groupe de travail bipartisan sur le sujet et (iii) des formations en la matière pour les sénateurs [11]. Le 13 septembre 2023, Schumer a réuni à huis clos à Washington les dirigeants des plus grosses entreprises technologiques américaines pour discuter de ce sujet. A l’issue de cette rencontre, l’ensemble des participants a enjoint le gouvernement fédéral à agir rapidement pour coordonner une action internationale et promouvoir la création d’une agence similaire à celle en charge de la régulation du nucléaire, ceci afin d’apporter une réponse globale à l’IA [12]. 

 

Cependant, les fortes divisions au Congrès, l’influence des lobbyistes, et le manque de connaissance des parlementaires sur le sujet risquent de retarder l’agenda législatif et les ambitions d’une telle loi [13]. 

 

Du côté de la Maison Blanche et des agences fédérales

 

L’administration Biden-Harris met en avant l’obtention en juillet d’un “voluntary commitment” * de sept entreprises leaders des technologies émergentes (Google, OpenAI, Amazon, Meta, Inflection, Anthropic, Microsoft) [14]. Celui-ci vise à assurer la sécurité des modèles d’IA, les sociétés s’engageant à intégrer des garde-fous à leurs modèles et à les tester extensivement avant de rendre la technologie accessible au public. Il ambitionne aussi d’améliorer la transparence des modèles, en rendant publiques leurs limitations et en s’assurant que les contenus produits par l’IA soient identifiés comme tels. 

 

De plus, l’OSTP (Office for Science and Technology Policy), qui fait partie du Executive Office présidentiel, s’est doté depuis le vote du NAII Act d’une équipe dédiée à l’IA [15]. Cette équipe est à l’origine d’une proposition, datant d’octobre 2022, de Bill of Rights pour l’IA. Ce document a fait l’objet d’une consultation du public américain dans son élaboration et comprend cinq principes fondamentaux avec des directives connexes. Ces cinq principes fondamentaux sont : garantir des systèmes sûrs et efficaces, protéger contre les biais des algorithmes, protéger les données personnelles, garantir la transparence des modèles d’IA, proposer des alternatives humaines aux systèmes automatisés [16]. 

 

Enfin, les agences fédérales investissent le sujet. Le National Institute of Standards and Technology (NIST) a publié en janvier dernier sa matrice de gestion des risques vis-à-vis de l’IA [17] et la Federal Trade Commission (FTC) a lancé une enquête sur ChatGPT et son potentiel néfaste [18].

 

Alors que la réglementation de l’intelligence artificielle progresse lentement au niveau fédéral, la Californie – qui accueille aujourd’hui 35 des 50 “meilleures” [19] entreprises d’IA du monde et un quart des brevets relatifs à l’IA – s’apprête à devenir un précurseur dans ce domaine grâce à plusieurs initiatives récentes. 

 

La Proposition de Loi AB 331 en Californie. 

En janvier 2023, l’Assemblée de Californie a déposé une proposition de loi AB331, également connue sous le nom deAutomated Decision Tools Bill”, portée par la députée Rebecca Bauer-Kahan [20]. Cette initiative législative vise à proposer des réglementations sur les “outils de décision automatisés”, et à introduire des évaluations d’impact obligatoires. Plus factuellement, ces prises de décisions réalisées par IA peuvent se traduire à travers des algorithmes qui filtrent les candidats à l’emploi, ou encore aux programmes accordants ou non des prêts bancaires. Leur réglementation est donc critique, et ardue.

 

S’il est adopté, ce projet de loi imposera des responsabilités importantes aux développeurs et aux utilisateurs d’outils de décision automatisés, par le biais de mesures les obligeant à préparer des déclarations d’impact et des programmes de gouvernance pour gérer le risque de “discrimination algorithmique”. En outre, les créateurs de ces outils devront notifier les personnes affectées par des décisions cruciales prises à l’aide de ces dispositifs.

 

Rebecca Bauer-Kahan, membre du Parti démocrate et ardente partisane de ce projet de loi sur l’IA, met en lumière à travers cette proposition le rôle essentiel des lobbyistes dans la compréhension de cette technologie complexe. Elle précise qu’une co-construction de ce type de mesure avec les lobbyistes du secteur est indispensable : elle permet de travailler sur des bases et définitions communes et de ne négliger aucune des  conséquences possibles de ce type de technologie. 

 

Le projet de loi de Mme Bauer-Kahan sur l’IA devrait être réintroduit d’ici décembre de cette année, ce qui pourrait le mettre sur la voie de l’adoption [21].  Si ce projet de loi était adopté, la Californie pourrait devenir un précurseur et modèle pour d’autres États, indépendamment des actions menées par le gouvernement fédéral. Cette mesure représenterait une avancée significative vers une régulation plus rigoureuse de l’IA.  

 

Le Décret du Gouverneur Gavin quant à la position de la Californie sur l’IA générative

 

Le gouverneur de Californie, Gavin Newsom, a signé le 6 septembre un décret réglementant l’utilisation de l’Intelligence Artificielle générative dans le secteur public [22]. 

 

Ce décret est un signal fort, allant dans le même sens que l’AI Bill of Rights au niveau fédéral. En effet, celui-ci vise à établir un processus unifié et responsable d’évaluation de l’IA en vue de son déploiement dans l’Etat de Californie. De manière notable,  ce texte prend le parti de ne pas chercher à freiner, mais au contraire à encourager les développements de l’IA, et souligne l’importance de garantir une IA sûre et éthique, tout en capitalisant sur la position de la Californie en tant que foyer de nombreuses entreprises technologiques et d’IA générative. 

 

Le gouverneur Newsom a déclaré lors de la parution du décret que “l’IA générative est une technologie potentiellement transformative, comparable à l’avènement d’Internet, et nous en sommes seulement aux prémices de la compréhension de ce que l’IA générative est capable de faire. (…) Nous adoptons une approche lucide et humble vis-à-vis de cette technologie qui change le monde. Nous posons des questions. Nous cherchons des réponses auprès d’experts. Nous nous concentrons sur la création d’un avenir pour une IA éthique, transparente et digne de confiance. Nous faisons ce que la Californie fait toujours : nous menons le monde dans le progrès technologique. »

 

Parmi les dispositions de ce décret accompagnant le déploiement d’une IA générative de manière éthique et responsable, protégeant contre les préjudices potentiels et maintenant la position de leader mondial de la Californie en matière d’IA, on peut par exemple noter :  

  • Un plan d’approvisionnement : Les agences vont créer des règles d’achat et d’utilisation de l’IA générative de manière sûre et éthique au sein du gouvernement. Ceci afin de favoriser la transparence et l’efficacité des opérations du gouvernement, et de prévenir toute dérive ou excès.
  • Un rapport sur les utilisations bénéfiques de l’IA générative : Les agences doivent rédiger un rapport qui explique comment l’IA générative peut aider la Californie, et comment elle pourrait causer des problèmes pour les communautés, le gouvernement et les travailleurs de l’État.
  • Un cadre de déploiement et d’analyse : Des règles seront mises en place pour que les agences examinent comment l’utilisation de l’IA générative pourrait affecter les communautés vulnérables. L’État ambitionne de déployer des sites de tests de l’IA générative avant de la déployer partout et à grande échelle.
  • Une formation des employés de l’Etat : Les agences auront la responsabilité de former les  employés de l’État à l’utilisation de l’IA générative. Ces formations devront faire l’objet d’une approbation par l’État afin de garantir la justesse des résultats obtenus. Il s’agira enfin de vérifier comment l’IA générative affecte les employés de l’État.
  • Des partenariats sur l’IA et l’IA générative : L’État propose de travailler avec des universités afin de comprendre comment l’IA générative peut avoir des répercussions à l’échelle d’un État, tel que la Californie. Une rencontre est d’ores et déjà prévue  en 2024 à cet effet.
  • Un engagement législatif : L’État entend établir le dialogue avec les législateurs et les acteurs importants afin de créer des règles communes d’utilisation de l’IA. Celles-ci pourraient prendre la forme de préconisations et d’interdictions, de critères à respecter, de rapports ou encore de formations.
  • Une évaluation des impacts de l’IA de manière continue : L’État s’engage enfin à évaluer de manière régulière la manière dont l’utilisation de l’IA générative peut faire évoluer ces règles. Des mises à jour des dispositions prises sont ainsi prévues.

 

Proposition du projet de loi SB294 par le Sénateur Scott Wiener pour la sécurité de l’Intelligence Artificielle en Californie

 

Le 13 septembre 2023, le sénateur Scott Wiener de San Francisco a dévoilé à Sacramento le projet de loi SB 294, intitulé « Safety in Artificial Intelligence Act » [23]. En réponse à la rapide progression des capacités de l’IA et aux risques qui y sont associés, ce projet de loi vise à établir un cadre réglementaire pour garantir le développement fiable de l’IA en Californie.
En proposant cette loi d’intention, le sénateur Wiener cherche à susciter les débats et à recueillir des commentaires qui enrichiront la proposition. Celle-ci pour ensuite être formellement présentée au processus législatif [24].

Les mesures du projet SB 294 incluent notamment : 

  • L’obligation pour les entreprises développant des modèles d’IA de présenter les plans de tests réalisés sur leurs modèles d’IA, afin d’identifier les risques de sécurité inhérents. Les entreprises devront déclarer les resultats de leurs tests si ceux-cis révellent d’éventuels risques.  Un organe de révision évaluera ensuite ces déclarations et effectuera d’éventuels audits supplémentaires afin de garantir une transparence et une uniformité en matière de précautions de sécurité dans cette industrie.
  • La création de CalCompute, une plateforme de stockage dans le cloud dédiée à la recherche en IA, disponible pour les chercheurs en IA et les petits développeurs hébergés dans le système universitaire public de Californie. 

 

Conclusion 

 

Tandis que l’Europe a tracé la voie en adoptant le premier cadre législatif sur l’IA avec l’IA Act, les États-Unis sont en train de rattraper leur retard dans la course à la réglementation de l’IA. Jusqu’à présent, le Congrès américain n’a adopté que peu de lois sur l’IA, dont le NAII Act de 2020, principalement axé sur le rôle du gouvernement dans le développement de l’IA. La Californie prend les devants et se positionne en tant que pionnière en matière de régulation de l’IA générative, en proposant des initiatives législatives telles que la proposition AB331 et le projet SB 294, visant à réglementer l’utilisation et le déploiement de l’IA dans l’État. 

 

Au delà de sa prédominance technologique, la Californie peut compter sur ses institutions de recherche de premier plan en matière d’IA générative, avec notamment la présence sur le territoire du Collège d’informatique, de science des données et de la société (CDSS) de l’Université de Californie, Berkeley, et l’Institut pour l’intelligence artificielle centrée sur l’homme (HAI) de l’Université Stanford.

 

Une fois de plus dans le monde de la technologie, l’écosystème californien possède donc une opportunité unique aussi bien sur le plan de la recherche académique qu’au niveau gouvernemental, de définir les conditions d’un équilibre entre innovation technologique, sécurité et éthique. 

 

Références: 

[1] What is ChatGPT, DALL-E, and generative AI? | McKinsey 

[2] How AI could spark the next pandemic 

[3] How AI will turbocharge misinformation — and what we can do about it 

[4] Understanding Bias In AI-Enabled Hiring 

[5] Protecting privacy in an AI-driven world | Brookings 

[6] AI eliminated nearly 4,000 jobs in May, report says – CBS News 

[7] The AI act: Europe is leading the race to regulate artificial intelligence. Here’s what you need to know | CNN Business 

[8] Artificial Intelligence: Overview, Recent Advances, and Considerations for the 118th Congress | CRS Reports

[9] Artificial Intelligence Initiative Act of 2020 

[10] OpenAI CEO Sam Altman testifies at Senate artificial intelligence hearing | full video 

[11] Sen. Schumer hopes legislation regulating AI can pass a divided Congress : NPR 

[12] Tech leaders including Musk, Zuckerberg call for government action on AI et Top tech CEOs discuss future of AI on Capitol Hill : NPR

[13] Despite many briefings and hearings, lawmakers have a long way to go to regulate AI : NPR 

[14] FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI | The White House et Pressured by Biden, A.I. Companies Agree to Guardrails on New Tools 

[15] Select Committee on Artificial Intelligence | OSTP | The White House 

[16] Blueprint for an AI Bill of Rights | OSTP | The White House 

[17] AI Risk Management Framework | NIST 

[18] F.T.C. Opens Investigation Into ChatGPT Maker Over Technology’s Potential Harms
[19] AI 50, by Forbes, showcases startups developing the most promising business applications of artificial intelligence

[20]California Assembly Bill 331

[21] As states move on AI, tech lobbyists are swarming in

[22] Governor Newsom Signs Executive Order to Prepare California for the Progress of Artificial Intelligence

[23] Senator Wiener introduces safety framework in artificial intelligence legislation

[24] Exclusive: California Bill Proposes Regulating AI at State Level

 

Définitions

*Un “Voluntary Commitment” fait généralement référence à un engagement ou à une obligation prise volontairement par une personne ou une entité sans qu’elle y soit contrainte par la loi.

 

Signature:

 

Valentine Asseman, chargée de mission pour la Science et la Technologie, Consulat Général de France à San Francisco, [email protected] 

Arthur Manceau, stagiaire au sein de la mission pour la Science et la Technologie, Ambassade de France aux Etats-Unis, [email protected] 

Emmanuelle Pauliac-Vaujour, attachée pour la Science et la technologie, Consulat Général de France à San Francisco, [email protected] 

Partager

Derniers articles dans la thématique
,