Dans la lignée d’une coopération public-privé accrue de l’administration Biden – notamment avec les entreprises de tech – la maison blanche rallie 8 Techs supplémentaires à sa cause en obtenant qu’elles s’engagent à leur tour sur 8 voluntary commitments [1]. Retour sur un calendrier mené au pas de course en faveur de la régulation de l’IA.
Pour rappel, en mai, la maison blanche avait reçu [2] les PDG de 4 entreprises pionnières de l’IA (Google, Anthropic, Microsoft et OpenAI) pour évoquerleur responsabilité dans une innovation éthique, fiable et responsable et la protection des consommateurs et de la société plus généralement. L’administration avait publié un Blueprint for an AI Bill of Rights [3], un Executive Order [4] et un National AI R&D Strategic Plan [5] dans cette optique, avec une emphase en particulier sur la prévention des biais algorithmiques et la discrimination. La National Science Foundation avait annoncé un investissement de 140 millions de dollars pour la création de sept nouveaux National AI Research Institutes, amenant à 25 le nombre total de ces institutions à travers le pays. [6]
En juin, le président Biden avait ensuite rencontré un certain nombre d’experts et de chercheurs de classe mondiale [7] à San Francisco. Quelques semaines plus tard, l’administration actuelle s’était félicitée d’avoir obtenu les premiers voluntary commitments de 7 entreprises tech américaines de premier plan (Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI) avec pour objectif affiché de développer une IA sûre, responsable et de confiance. L’administration prévoit à ce sujet la publication imminente d’un executive order.
En juillet, la vice-présidente Harris avait réuni des leaders de la protection des droits civil, du travail et des consommateurs [8] pour réaffirmer son engagement a protéger la population américaine de tout préjudice et discrimination.
En août, l’administration a lancé un concours sur deux ans – le AI Cyber Challenge [9] – qui utilisera l’IA pour protéger les logiciels les plus importants des États-Unis, comme les algorithmes nécessaires au fonctionnement d’internet et des infrastructures critiques.
Enfin mi-septembre, c’était au tour de Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI et Stability de s’engager à suivre ces voluntary commitments. Ces engagements “fondamentaux pour le futur de l’IA” prennent effet immédiatement. Les 15 entreprises désormais concernées s’engagent à :
S’assurer de la sûreté des produits avant de les commercialiser en s’assurant de :
- Soumettre leurs systèmes d’IA à des tests de sécurité internes et externes avant leur mise sur le marché. Ces tests, effectués en partie par des experts indépendants, permettent de se prémunir contre certains risques liés à l’IA, tels que la biosécurité et la cybersécurité, ainsi que contre ses effets sociétaux plus largement.
- Partager l’information sur la gestion des risques liés à l’IA avec l’ensemble du secteur privé, les gouvernements, la société civile et le monde universitaire. Il s’agit notamment de bonnes pratiques en matière de sécurité et de collaboration technique.
Construire des systèmes qui placent la sécurité au premier plan :
- En investissant dans la cybersécurité et les mesures de protection contre les menaces internes, afin de protéger les poids des modèles de Machine Learning des entreprises (ces poids constituent la partie la plus essentielle d’un système d’IA, et sa propriété intellectuelle).
- En facilitant la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d’IA. Certains problèmes peuvent persister même après la publication d’un système d’IA et un mécanisme de signalement robuste permet de les détecter et de les corriger rapidement.
Gagner la confiance du public :
- Mettre au point des mécanismes techniques robustes pour que les utilisateurs sachent quand un contenu est généré par l’IA, par exemple grâce au Watermarking. Cette mesure garantit la créativité et la productivité en IA tout en réduisant les risques d’actes malveillants.
- Rendre compte publiquement des capacités et des limites de leurs systèmes d’IA. Ces rapports couvriront à la fois les risques de sécurité et les risques sociétaux, comme les conséquences sur l’équité et les biais discriminatoires, par exemple.
- Prendre en compte les risques sociétaux que les systèmes d’IA peuvent poser, notamment en termes de protection de la vie privée. Les antécédents de l’IA montrent l’ampleur potentielle des dangers qu’elle pose et les entreprises s’engagent à déployer une IA qui les atténue.
- Développer et déployer des systèmes d’IA pour aider à relever des défis sociétaux. De la prévention du cancer à la lutte contre le changement climatique, en passant par bien d’autres domaines, l’IA, si elle est correctement gérée, nourrit de manière très impactante l’innovation et peut contribuer à la prospérité, à l’égalité et à la sécurité de tous.
Références:
- Ensuring Safe, Secure, and Trustworthy AI
- Biden-Harris Administration Announces New Actions to Promote Responsible AI Innovation that Protects Americans’ Rights and Safety
- Blueprint for an AI Bill of Rights
- Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government
- Biden-Harris Administration Takes New Steps to Advance Responsible Artificial Intelligence Research, Development, and Deployment
- Biden-Harris Administration Announces New Actions to Promote Responsible AI Innovation that Protects Americans’ Rights and Safety
- Joe Biden – X Post
- Kamala Harris – X Post
- Biden-Harris Administration Launches Artificial Intelligence Cyber Challenge to Protect America’s Critical Software
Signature: Antoine Glory, Chargé de mission pour la Science et la Technologie, Ambassade de France à Washington D.C., [email protected].