Jusqu’à présent, des réglementations de l’IA aux Etats-Unis en ordre dispersé.
Actuellement, les États Unis n’ont pas de cadre fédéral pour réguler l’intelligence artificielle (IA). Par conséquent, chaque État crée des régulations spécifiques pour la gestion de l’IA en particulier et la protection des données en général. En 2021, 17 États ont introduit des projets de loi sur l’IA, notamment l’Alabama, le Colorado, l’Illinois, et le Mississippi qui ont adopté des lois comme l’Artificial Intelligence Interview Act et l’Alabama Council on Advanced Technology and Artificial Intelligence. En plus de la réglementation de l’État, l’IA est régulée par secteur. Par exemple, des agences fédérales telles que la Food and Drug Administration (FDA) et le Department of Transportation (DoT) tentent d’intégrer la régulation de l’IA dans leurs régimes réglementaires.
Alors que quelques États américains ont mis en place une réglementation de l’IA, l’une des lois les plus globales concernant la protection des données, ce qui impacte directement l’intelligence artificielle, est le California Consumer Protection Act (CCPA). Adoptée en 2020 en Californie, cette loi s’inspire de la loi règlement général sur la protection des données (RGPD) européenne adoptée en 2018 qui décrit le traitement des données personnelles dans l’EU. Le CCPA est en train d’adopter d’autres régulations plus spécifiques autour des décisions automatisées avant le 1er juillet 2022.
Une volonté fédérale de réguler les algorithmes d’IA pouvant prendre des décisions critiques
L’Algorithmic Accountability Act a été introduit au Sénat américain et à la Chambre des représentants le 3 février 2022. Ce projet de loi propose d’ordonner à la Federal Trade Commission (FTC) de promulguer des règlements qui obligent toute « entité couverte » à effectuer des évaluations d’impact et à satisfaire à des exigences concernant les « processus de décision critique augmentés » susceptibles d’avoir des effets juridiques ou plus généralement des impacts importants sur un consommateur.
Le terme de « processus de décision critique augmenté », tel qu’employé dans le projet de loi concerne tout processus, procédure ou toute autre activité qui déploie des « systèmes de décision automatisés » pour prendre une décision critique. Cela recouvre donc tout logiciel, y compris ceux utilisant des techniques d’intelligence artificielle ou d’apprentissage automatique, utilisant du calcul dont le résultat sert de base pour un jugement humain.
Les « entités couvertes » sont des personnes, des partenariats ou des sociétés sur lesquels la FTC a compétence. Les entreprises entrent dans cette catégorie au-dessus d’un certain seuil de chiffre d’affaires. Compte tenu des dispositions relatives au calendrier, il est probable que si le projet de loi est adopté, les dispositions n’entreront pas en vigueur avant un minimum de trois à quatre ans.
Une tendance à l’alignement avec l’UE
Ce projet de loi s’ajoute à une série de recrutements au sein de l’administration Biden qui laissent penser que le gouvernement fédéral américain envisage d’avoir une approche plus proactive en matière de régulation fédérale de l’IA. En effet, Merederith Whittaker, cofondatrice de l’institut « AI now » a été recrutée à la FTC. De plus, les expertes en IA Suresh Venkatasubramanian et Rashida Richardson à l’Office of Science and Technology Policy (OSTP) de la Maison Blanche envoient un signal fort que les Etats-Unis avancent dans la même direction que l’UE en matière de régulation de l’IA. En novembre dernier, l’OSTP avait entamé une série d’auditions visant à sensibiliser le grand public aux dangers de l’IA, et envisageait un « bill of rights for an automated society ». Citons également qu’en 2021, le Trade and Technology Council a comporté pour la première fois des discussions sur la régulation de l’IA, dans un sommet traditionnellement plus axé sur les contrôles à l’export et aux investissements. Ainsi, cet Algorithmic Accountability Act pourrait être un signe avant-coureur d’autres projets à venir en 2022.
Ces initiatives fédérales américaines de régulation de l’IA sont en partie similaires à la législation européenne centrée sur des normes qui protègent en premier le consommateur, et visent ainsi à susciter sa confiance dans les algorithmes d’IA. L’AI Act proposé en avril 2021 par la Commission Européenne est une législation qui introduit un « cadre sécurité des produits » construit autour quatre catégories de risques, ainsi que la création de l’European Artificial Intelligence Board (EAIB). Comme l’Algorithmic Accountability Act, la loi suggère un cadre uniforme qui sera appliqué dans tous les États membres pour garantir pratiques responsables en matière d’IA.
Rédacteurs:
Jean-Baptiste Bordes, attache-stic.sf at ambascience-usa.org
Margherita Ceccagnoli, analyst-dc at ambascience-usa.org