Wilson Center : bilan des travaux du Congrès américain et préfiguration de l’agenda politique autour de l’IA

wilson-center

Le Wilson Center, think-tank réputé et établi à Washington, a organisé le 3 décembre 2020 un événement en ligne permettant de dresser le bilan des travaux réalisés autour de l’intelligence artificielle (IA) par le 116ème congrès des Etats-Unis et de préfigurer les sujets qui seront abordés par les représentants et sénateurs du 117ème congrès qui se réunira du 3 janvier 2021 au 3 janvier 2023.

Parmi les intervenants, Sam Mulopulos est le principal conseiller du sénateur républicain Rob Portman de l’Etat d’Ohio sur les questions liées au commerce et à la technologie. Il s’occupe notamment pour le sénateur Portman du groupe parlementaire du sénat sur l’IA annoncé dès mars 2019. Egalement côté républicain, Mike Richards, est adjoint au directeur de cabinet du représentant Pete Olson de l’Etat du Texas et travaille sur les sujets entre autres des télécommunications, de technologie, de la défense mais aussi de transport et d’infrastructure. L’événement invitait également des intervenants de sensibilité démocrate comme Sean Duggan, assistant parlementaire militaire du sénateur démocrate Martin Heinrich, élu du Nouveau Mexique depuis 2009. Le sénateur Heinrich siège au Comité des forces armées du Sénat ainsi qu’au Sous-comité des forces stratégiques, ce dernier s’occupant notamment des sujets du nucléaire et de la surveillance du département de l’Énergie. Dahlia Sokolov, quant à elle, est directrice du Sous-comité pour la recherche et la technologie au sein du Comité des sciences, de l’espace et des technologies de la Chambre des représentants. Dans cette fonction, elle travaille étroitement avec plusieurs agences fédérales telles que le NIST ou la NSF sur les aspects de politique scientifique, d’éducation en STEM (sciences, technologie, ingénierie et mathématiques) mais également de coopération scientifique internationale.

L’échange était animé par Meg King qui conseille la présidente et directrice du Wilson Center, Jane Harman également présente, sur les enjeux de sécurité nationale et stratégique. Par ailleurs, Meg King est directrice du Science and Technology Innovation Program (STIP) qui produit différentes analyses sur les nouvelles technologies et participe à la formation des parlementaires par le biais de leurs Technology Labs (dont un sur l’IA et un autre sur la cybersécurité).

Retour sur les réussites des deux dernières années en matière d’IA

En introduction, les quatre invités ont évoqué ce qu’ils perçoivent comme étant les grandes avancées faites par le pouvoir législatif sur le sujet de l’IA.

L’instauration du groupe parlementaire au Sénat (un groupe équivalent avait été lancé à la Chambre dès 2017) est en soi une réussite qui a permis à la chambre haute d’acquérir de l’expertise dans le domaine en sollicitant différents acteurs du monde industriel ou académique. Fort de cette expertise, le Congrès est parvenu à faire passer 3 propositions de lois relatives à l’IA sur un total de 6 textes déposés.

Parmi ces textes, on retrouve notamment l’inclusion du AI Initiative Act dans la NDAA 2021 (loi d’autorisation de la Défense nationale, votée chaque année et qui régit le budget et les dépenses du département de la Défense) qui prévoit si votée [NDLR, en date du 05 janvier 2021 : le Président américain a opposé son veto le 23 décembre dernier mais les deux chambres ont voté pour outrepasser ce veto et la NDAA sera donc promulguée] :

  • L’établissement de plusieurs structures dont un Bureau National de coordination de l’IA au niveau fédéral, un Comité interagences sur l’IA (composé de hauts fonctionnaires des différents départements), un Comité consultatif sur l’IA (composé d’experts non-gouvernementaux avec au plus la moitié issue du monde industriel),
  • Un mandat du NIST pour la création d’indicateurs et standards pour l’évaluation des algorithmes d’IA et l’évaluation de leur efficacité, avec un budget pour chaque année fiscale de 2020 à 2024 de $40 millions;
  • Un mandat de la NSF pour la formulation d’objectifs pédagogiques répondant aux problématiques de responsabilité des algorithmes (algorithm accountability), d’explicabilité, de biais dans les données, de protection de la vie privée (privacy) ainsi qu’aux implications sociétales et éthiques de l’IA. $500 millions de budget supplémentaires sont accordés à la NSF pour financer jusqu’à 5 « Centres multidisciplinaires sur la recherche et la formation en IA ». L’un des centres au moins doit se focaliser sur l’enseignement primaire et secondaire, un centre doit être consacré au service des populations minoritaires et tous doivent intégrer une composante de formation continue (lifelong education component).
  • Un mandat du département de l’Énergie pour la création d’un programme de recherche en IA, la création d’équipements de calcul de pointe mis à la disposition en priorité au gouvernement et aux académiques de l’IA mais également aux entités privées moyennant des frais de recouvrement. Jusqu’à 5 centres de recherche en IA doivent être créés et inclure des établissements d’enseignement supérieur et laboratoires nationaux de recherche avec un budget d’$1.5 milliards entre 2020-2024 soit $60 millions par centre chaque année).

L’inclusion dans la NDAA est une réussite importante soulignée par tous les intervenants car, dans un contexte où le Congrès est fortement critiqué pour son inefficacité et sa lenteur à faire passer des lois, cette loi annuelle sur la Défense est perçue comme la loi qu’il est absolument nécessaire de faire passer chaque année et pour laquelle les compromis entre républicains et démocrates sont encore concevables. Ce succès est d’autant plus important que le processus a été éprouvant malgré le soutien de la Commission permanente des forces armées comme le rappelle Dahlia Sokolov. En effet, de longues négociations se sont tenues avec près de 20 commissions différentes du Sénat et de la Chambre impliquées.

Parmi les autres textes de lois significatifs qui sont évoqués, on note le AI in Government Act of 2020 et le National AI Research Resource Task Force Act. Ce dernier texte, soutenu par plus d’une vingtaine de grandes entreprises et universités, prévoit notamment la création d’une infrastructure de cloud national pour démocratiser l’accès à la puissance de calcul pour toute la communauté scientifique en IA.

Ce que l’ensemble de ces lois permet est de codifier et concrétiser un grand nombre d’éléments (autour de la stratégie nationale de R&D en IA, des standards et normes sur l’IA, des objectifs de formation) qui, auparavant, restaient au stade de la discussion. Ces textes de loi s’appuient sur des initiatives existantes mais permettent d’aller plus loin en donnant un coup d’accélérateur au financement de la recherche mais aussi en positionnant clairement le rôle de certaines agences fédérales.

Le NIST, par exemple, est résolument l’agence fédérale de référence pour le développement de guides de bonnes pratiques, de guides d’implémentation mais aussi pour le développement de normes et standards auxquels toute organisation peut souscrire de façon volontaire. Les intervenants soulignent également la facilité avec laquelle le NIST est capable de réunir des acteurs du monde politique, industriel et académique pour faire avancer les sujets scientifiques et technologiques.

Du vote à l’implémentation des politiques : quelles sont les difficultés ?

Si le passage des différentes lois relatives à l’IA n’a pas été de tout repos, leur implémentation effective n’est pas moins difficile.

À ce propos, les intervenants ont d’abord insisté sur la nécessité d’assurer un bon suivi des lois votées. Mike Richards souligne que ce suivi passe notamment par le biais d’une supervision accrue par le Congrès des actions réellement prises (oversight), au travers de différentes auditions, la rédaction de rapports mais aussi d’échanges soutenus avec les différents partenaires industriels, académiques et les agences fédérales. Dans la même veine, l’OPEN Gov Data Act de 2018 est pris par Sam Mulopoulos comme exemple de texte adopté mais dont le niveau d’implémentation est insuffisant. Il invite notamment à réfléchir à l’interaction de ces différentes lois qui prises ensemble peuvent permettre de créer des synergies. En effet, pour ce cas précis, un regain d’effort pour l’ouverture des données publiques permettrait de nourrir le développement de systèmes d’IA envisagés dans les nouveaux textes. Sam Mulopoulos attire aussi l’attention sur l’importance d’une nomination rapide des personnels dans les nouveaux postes créés par ces lois pour en assurer l’implémentation.

Sur le sujet des données, Dahlia Sokolov abonde en indiquant qu’il est crucial d’assurer un accès aux données pour le monde de la recherche, de créer et rendre disponible des jeux de données de référence pour l’apprentissage machine (benchmark datasets available for training). Elle mentionne par ailleurs que davantage pourrait être fait pour encourager l’ouverture des données collectées par les entreprises privées à des fins de recherche, tout en ayant des protections en matière de propriété intellectuelle.

L’accessibilité de l’IA passe également par des efforts importants en termes de formation, qu’il s’agisse de formation initiale à l’IA mais aussi de formation continue des personnels de recherche aux outils et infrastructures comme le cloud.

Dahlia Sokolov insiste également sur la nécessité de garantir un bon niveau de financement des agences fédérales qui font un travail formidable mais parfois pas assez reconnu ou apprécié.

L’interaction entre acteurs publics et privés est également décrite comme nécessaire pour que des leçons soient tirées des expériences du privé dans divers secteurs comme le secteur financier ou le secteur pharmaceutique. Selon Mike Richards, il y a une forte dépendance en expertise du public envers le privé et d’importants enseignements sont à tirer des pratiques du privé, par exemple, en observant l’établissement de comités d’éthique autour de l’IA au sein des entreprises. À l’inverse, Dahlia Sokolov évoque aussi le fait que les entreprises attendent des directions claires venant du gouvernement fédéral sur certains sujets comme la définition de ce que doit être une IA de confiance (sur le sujet, voir également le décret présidentiel de la Maison Blanche). Sur cet aspect, elle pointe les réactions positives au développement par le NIST d’un Trustworthy AI Framework.

Pour Sean Duggan, afin qu’un bon équilibre entre leadership par le public ou par le privé puisse être trouvé, il faut reconstruire des relations de confiance, qui ont pu être mises à mal ces dernières années (cf. opposition d’employés de Google au projet MAVEN du département de la Défense, DoD). Il se réjouit notamment du travail qu’effectue le Joint Artificial Intelligence Center (JAIC) du DoD pour tenter d’apaiser le dialogue.

Dans l’ensemble, tous les intervenants se félicitent que les réticences initiales à interagir se soient estompées. Les critiques constructives reçues de l’industrie ou du monde académique ont permis d’aboutir à de meilleurs textes de loi et à rendre certains débats plus publics, commentent les différents panelistes. Dahlia Sokolov indique qu’il faut poursuivre l’analyse des modèles de partenariat public-privé qui fonctionnent en essayant de réduire les obstacles culturels qui peuvent exister entre les différentes communautés d’acteurs.

Les grandes orientations pour les deux années à venir : éducation et formation, usage éthique, biais des données, IA de confiance, partenariat public-privé-académique

Alors que le 116ème cycle législatif vient de se conclure, de nombreux sujets restent à traiter pour les deux années à venir.

Du point de vue thématique, Meg King pense que le sujet de la reconnaissance faciale sera de nouveau ardemment débattu. L’usage de l’IA dans le domaine médical notamment en radiologie et pour l’amélioration des diagnostics est également mentionné.

Les intervenants mettent, eux, l’accent sur un premier aspect autour de l’éducation et de la formation, non seulement autour de l’IA, mais également autour des sciences et technologies de manière plus générale. Il est important que des mesures soient prises afin de rendre les carrières en STEM plus attractive en général mais aussi plus accessible aux minorités, aux personnes issus de milieux socio-économiques défavorisés ou aux personnes qui vivent en dehors des centres urbains. À l’heure actuelle, les Etats-Unis sont en situation de dépendance vis-à-vis de talents étrangers, affirme Mike Richards. Bien que le rôle de l’état fédéral soit relativement limité en ce qui concerne l’éducation qui, comme le rappelle Dahlia Sokolov, est une compétence réservée davantage aux états fédérés et aux gouvernements locaux, différents types de bourses en lien avec l’IA pourraient être créés (scholarship, fellowship). Sur la question de la diversité, elle insiste pour qu’une évaluation soit faite des programmes qui fonctionnent réellement.

Dans un registre similaire, Sam Mulopulos pense qu’un travail important doit être fait pour mieux comprendre l’impact de l’IA sur le futur de l’emploi (Future of Work). Il prend la crise des opioïdes comme exemple de phénomène lié aux transformations technologiques qu’il est nécessaire d’étudier. Les pertes d’emploi, et en particulier le chômage touchant spécialement des populations masculines, mais aussi d’autres impacts négatifs du numérique et de l’automatisation sur le marché du travail doivent être mieux compris et anticipés.

Un autre aspect qui devrait être largement mis en avant dans les prochains travaux parlementaires concerne différentes problématiques liées aux biais dans les données comme celles de la transparence des algorithmes, de la responsabilité (accountability) mais aussi de l’explicabilité des systèmes utilisant de l’IA (eXplainable AI, XAI, cf. consultation récente du NIST à ce sujet). Parmi les actions à prendre, Sam Mulopulos propose de généraliser les procédures d’évaluation des technologies à base d’IA (tech evaluation). Cela pourrait, par exemple, prendre la forme d’une étude pour évaluer si des biais raciaux existent dans les systèmes de décisions pour l’attribution de logements. Pour cet ensemble de paramètres (explainability, transparency, trustworthiness), des efforts importants restent à faire pour parvenir à un consensus sur la façon de définir ces termes clés mais aussi par la suite un consensus sur comment mesurer chacun de ces paramètres.

Inquiétudes persistantes vis-à-vis de la Chine mais optimisme

Dans la seconde partie de l’événement, les intervenants ont pu réagir à différentes questions posées par le public. L’une de ces questions portait sur la place de leader des Etats-Unis par rapport à la Chine en matière d’IA et la stratégie américaine pour maintenir ce leadership.

Parmi les inquiétudes, Sam Mulopulos a notamment évoqué le retard pris par les Etats-Unis en termes d’infrastructures et de puissance de calcul par rapport à la Chine sur les dernières années. En effet, selon le classement TOP500 de juin 2020, la Chine comptait 213 superordinateurs contre 113 pour les Etats-Unis (dans ce même classement, la France se place 4ème mondiale avec 18 superordinateurs). Cette situation rend la création d’un National Cloud Computer évoqué plus haut d’autant plus importante. Il identifie au passage le Japon comme pays allié ayant déjà commencé à investir sur ce type d’infrastructure (cf. AI Bridging Cloud Infrastructure).

Sam Mulopulos continue en insistant sur la nécessité d’avoir une réflexion qui dépasse le cadre strict de l’IA pour dresser plus largement un état de la compétitivité économique des Etats-Unis sur le plan international. Selon lui un exercice stratégique de telle envergure n’a pas été entrepris depuis le Omnibus Trade and Competitiveness Act of 1988. Conduit dans le contexte de la Guerre Froide, ces travaux n’avaient pas impliqué de réflexions sur un monde connecté par Internet.

Pour autant, les intervenants s’accordent pour dire que les valeurs américaines d’ouverture et de respect des libertés individuelles sont bel et bien un avantage dans la compétition face à la Chine. Les Etats-Unis restent le pays qui attire le plus les chercheurs et les investisseurs, un pays dans lequel les gens ont envie de venir étudier, venir vivre car ils savent qu’ils peuvent participer au processus politique. En matière d’IA, la transparence et le respect des droits sont d’autant plus des avantages qu’ils permettent de soutenir un déploiement plus large (at scale) de la technologie, plus en phase avec les besoins des populations et plus à l’écoute des craintes du public. Dans cette course aux talents en IA, Mike Richards va même jusqu’à suggérer que les chercheurs en IA venant aux Etats-Unis puissent obtenir une greencard s’ils le souhaitent, ce afin de pouvoir retenir les cerveaux.

La diplomatie scientifique pour penser la gouvernance de l’IA à l’échelle mondiale

Dernier aspect évoqué dans cette discussion, la collaboration internationale autour du développement de l’IA est jugée nécessaire. « L’endroit importe peu, dès lors que l’IA est utilisée à mauvais escient quelque part, il y a un risque que cela puisse retomber sur les Etats-Unis », explique Dahlia Sokolov.

L’OCDE, qui a publié en mai 2019 ses principes sur l’IA adoptés par ses pays membres, est une des enceintes importantes et régulièrement identifiée. L’OCDE hébergera notamment le Secrétariat du Partenariat Mondial pour l’IA (PMIA), initié par la France et le Canada, et la présence des Etats-Unis dans ce groupe est vue de manière positive. D’un côté, Sam Mulopulos pense que l’isolement diplomatique de la Chine permettra de montrer que ses positions sont minoritaires sur différents sujets liés à l’IA. À l’inverse, Dahlia Sokolov souhaite que la Chine soit à la table des négociations mais comme n’importe quel autre pays et que l’ensemble de la communauté internationale puisse avancer sur les questions d’IA.

Mike Richards estime qu’il est important d’avoir des certitudes et un message clair pour pouvoir engager les discussions avec les partenaires étrangers, ce que permettrait le passage des différents textes de loi mentionnés. Selon Sam Mulapulos, ces lois permettent d’établir une position claire des Etats-Unis en matière d’IA et plus les Etats-Unis seront actifs sur la question, plus les partenaires suivront dans leurs pas.

En conclusion de l’échange, les intervenants ont tenu à noter que l’IA était l’un des derniers sujets à ne pas avoir été politisé et qu’il était important de maintenir cette coalition bipartisane entre démocrates et républicains, pour continuer à avancer.

Rédacteur : 

Kévin KOK HEANG, Attaché adjoint pour la Science et la Technologie, [email protected] 

Partager