Publication d’une charte fédérale pour un usage responsable, transparent et équitable de l’intelligence artificielle

Le bureau des politiques scientifiques et technologiques de la Maison-Blanche a présenté une feuille de route pour garantir aux citoyens américains un usage équitable et fiable des technologies utilisant l’intelligence artificielle.

L’Office of Science and Technology Policy (OSTP) de la Maison-Blanche, en charge du suivi et de la mise en oeuvre des priorités de l’administration Biden-Harris pour les sciences et technologies, a dévoilé le 4 octobre son AI Bill of Rights, un texte qui doit permettre d’encadrer les usages de l’intelligence artificielle.

Prenant acte des nouveaux usages des technologies émergentes qui infiltrent progressivement l’ensemble de la société, l’OSTP a souhaité mettre en place une charte qui doit permettre d’encadrer les usages de ces technologies, et en particulier de l’IA, pour garantir un usage équitable et transparent pour tous.

La charte établie par l’OSTP doit permettre de garantir les cinq protections suivantes :

  • Les citoyens doivent être protégés contre les systèmes dangereux ou inefficaces ;
  • Les algorithmes ne doivent pas être discriminatoires et doivent être utilisés de manière équitable ;
  • Les citoyens doivent avoir la maîtrise de leurs données et être protégés contre les pratiques abusives grâce à des garanties intégrées ;
  • Les citoyens doivent également savoir si un système automatisé est utilisé et comprendre comment il contribue aux résultats;
  • Enfin, les citoyens doivent toujours avoir la possibilité de se retirer des systèmes d’IA en faveur d’une alternative humaine, et avoir accès à des recours en cas de problèmes.

Alondra Nelson, ancienne directrice par intérim de l’OSTP, et qui a porté le projet de l’AI Bill of Rights, a cité les méthodes automatisées de recrutement, les réseaux sociaux ou les données de santé comme exemples de secteurs qui devront se conformer à cette nouvelle charte.

Les États-Unis, qui hébergent parmi les plus puissantes entreprises de technologie et d’IA au monde, étaient jusqu’à présent l’un des rares pays développés à ne pas s’être doté d’une stratégie nationale sur la manière de protéger ses citoyens contre les dangers de l’IA.

De son côté, la Commission européenne a dévoilé en avril 2021 le premier cadre juridique sur l’IA au sein de l’UE. L’objectif est d’asseoir une vision européenne de l’IA basée sur l’éthique, en prévenant les risques inhérents à ces technologies par un règlement commun permettant d’éviter certaines dérives. Plusieurs secteurs sont ainsi particulièrement encadrés : infrastructures critiques, éducation, ressources humaines, services publics, et processus démocratiques.

 

Rédacteur 

Julian Muller, Chargé de mission auprès de l’équipe du Conseiller à l’Ambassade de France à Washington D.C., [email protected]

Partager

Derniers articles dans la thématique