NIST AI Risk Management Framework – Vers un standard de confiance de l’intelligence artificielle

Après publication d’un premier document de réflexion en juin dernier, le National Institute of Standards and Technology (NIST) a publié en mars 2022 une première ébauche de définition des risques et biais de l’intelligence artificielle (IA), afin d’en établir des normes de cadrage et de mitigation.
NIST

Sous tutelle du Département du Commerce, le National Institute of Standards and Technology est l’agence fédérale responsable de la métrologie et du développement des normes technologiques aux Etats-Unis. Au même titre que les autres instances scientifiques fédérales et avec l’appui du rapport final de la National Security Commission on AI, le NIST accélère graduellement son effort de recherche en intelligence artificielle [1].

Doté de près de 32 millions de dollars pour l’exercice fiscal 2021, le NIST a demandé un rehaussement de son enveloppe de R&D en IA à 46,9 millions de dollars, soit une hausse de près de 50% par rapport à l’année précédente [2]. Les bureaux du programme NITRD – Networking and Information Technologies Research & Development – et de la NAII – National Artificial Intelligence Initiative – ont travaillé de concert à cette requête budgétaire en identifiant deux axes prioritaires à son déploiement : (i) l’établissement de nouveaux partenariats public-privé entre l’enseignement supérieur, l’industrie et le gouvernement via des AI Collaborative Institutes et (ii) le développement des ressources humaines en collaboration avec le NIST Advanced Materials Center of Excellence. Le NIST est convaincu que ces deux accroissements de son activité permettront de développer des standards et des systèmes d’IA de confiance [3][4].

L’intelligence artificielle de confiance : un enjeu majeur pour l’administration américaine

Depuis 2016, les Etats-Unis ont pris conscience de l’ampleur des bénéfices que l’IA pouvait apporter à la société. A cet effet, la Maison Blanche a créé un sous-comité dédié au sein de son National Science and Technology Council (NSTC) et plusieurs rapports ont vu le jour. On retrouve notamment le rapport National Artificial Intelligence Research & Development Strategic Plan qui pose les premières briques d’investissements fédéraux de long terme autour des technologies IA, parmi lesquels seront financés les efforts initiaux de R&D pour l’avancement de la sécurité des systèmes intelligents, du développement de compétences et de normalisation de l’intelligence artificielle [5].

Dans une démarche de compétitivité au regard de l’avancement international de la recherche en IA, de garantie de la sécurité nationale et de la prospérité économique, l’administration Biden conçoit une stratégie fédérale prévoyant d’assurer le leadership technologique des Etats-Unis en la matière. Le 1er janvier 2021, le National AI Initiative Act est voté au Congrès. Le développement d’une intelligence dite « trustworthy » (« de confiance ») en est une priorité [6][7].

Selon l’Office of Science and Technology Policy (OSTP) du pouvoir exécutif, un des enjeux principaux de la NAII est « de s’assurer que les États-Unis soient leaders mondiaux du développement et de l’utilisation de systèmes d’IA de confiance dans les secteurs public et privé » [8].

Pour ce faire, le programme scientifique national américain décompose son action en cinq piliers stratégiques :

  • Recherche et développement pour l’IA de confiance, civile ou militaire, afin de résoudre les problématiques légales, éthiques et sociétales soulevées par l’IA. Les domaines de recherche à cette fin regroupent également la sûreté, la sécurité et l’explicabilité des algorithmes et systèmes intelligents ;
  • Mesures, outils d’évaluation et normes technologiques pour lesquels le NIST est désigné comme fer de lance de la recherche par Ordre Exécutif [9] ;
  • Régulation de l’usage de l’IA dans le secteur privé via un mémorandum de la Maison Blanche de 2020 à destination des départements et agences fédérales les incitant à publier respectivement des régulations autour des applications sectorielles de l’IA. A titre d’exemple, la Federal Trade Commission (FTC) a également émis son propre document de bonnes pratiques destiné à un usage transparent, lisible et juste de l’IA par les entreprises [10][11] ;
  • Régulation de l’usage de l’IA par le gouvernement fédéral, en intégrant des applications intelligentes de confiance au service de l’administration, par un décret présidentiel daté de décembre 2020 [12].
  • Participations des parties prenantes, experts et grand public, notamment grâce à la diffusion de Requests for Information (RFI) de la part de l’administration et de la constitution de comités de conseillers indépendants tels que le NSCAI.

NIST Special Publication 1270 : Vers une norme pour l’identification et la gestion des biais dans l’intelligence artificielle

Prenant acte de l’effort actuel en matière de limitation des biais et des risques statistiques et informatiques du machine learning, le NIST distingue deux familles, les biais systémiques et les biais humains, qu’il considère « négligés » à l’heure actuelle. Le travail d’évaluation des risques est issu de publications alimentées au fil de l’eau par les RFI (Request for Information) fréquentes à l’attention du public et des experts en IA. Ce travail est consultable via la bibliothèque de publications disponible sur le site officiel de la NAII. Le NIST prévoit une version 1.0 de son AI Risk Management Framework (RMF) à horizon janvier 2023 [13][14].

L’organisme américain de normalisation a également établi sa propre taxonomie des principes fondamentaux de l’IA de confiance, d’après une approche comparative avec les définitions d’autres institutions nationales ou internationales.

Dans son travail de recherche pour la standardisation du RMF, la coopération internationale s’illustre comme priorité de la stratégie américaine en intelligence artificielle NAII. Ainsi le NIST travaille conjointement avec les organisations multilatérales telles que l’OCDE ou les sommets internationaux G7 et G20, qui depuis 2017 formulent des recommandations pour l’IA de confiance (e.g. Human-centric AI mentionnée au paragraphe 44 de la Déclaration des Ministres de l’industrie et des Ministres du numérique du G7 de Sicile) [15]. Le Partenariat mondial pour l’intelligence artificielle (GPAI), dont les Etats-Unis sont membres, est également un moteur de discussions et de recherche autour de la conception de la normalisation du RMF en phase avec les recommandations des autres Etats membres [16].

En France, la recherche sur l’IA de confiance est également une priorité nationale prévue dans le cadre de notre stratégie d’accélération, et ce dans ses deux volets. La France et les Etats-Unis ont convenu de renforcer leur coopération sur la standardisation et la régulation de l’IA : le thème « IA éthique et de confiance » est l’un des trois thèmes retenus pour le volet IA de l’axe de coopération prioritaire sur les technologies émergentes mis en avant lors du comité mixte franco-américain en science et technologie qui s’est tenu au mois de décembre 2021 à Washington [17].

 

Rédacteur :
Maxence Balsalobre
Attaché adjoint pour la Science et la Technologie à Washington,
Nouvelles technologies de l’information, de la communication et de la sécurité.
[email protected]

Références :

  1. https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf
  2. https://www.nitrd.gov/pubs/FY2022-NITRD-NAIIO-Supplement.pdf
  3. https://www.nist.gov/system/files/documents/2021/06/08/6.%20Boehm%20NIST%20FY%202022%20Draft%205-27-21%20%281%29%20%28003%29VCAT%20%28003%29%20Updated%201.pdf
  4. https://www.nist.gov/coe/advanced-materials-center-excellence
  5. https://www.nitrd.gov/pubs/national_ai_rd_strategic_plan.pdf
  6. https://www.congress.gov/bill/116th-congress/house-bill/6216
  7. https://www.ai.gov/about/#NAII-NATIONAL-ARTIFICIAL-INTELLIGENCE-INITIATIVE
  8. https://www.ai.gov/strategic-pillars/advancing-trustworthy-ai/
  9. https://www.nist.gov/artificial-intelligence/plan-federal-engagement-developing-ai-technical-standards-and-related-tools
  10. https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf
  11. https://www.ftc.gov/business-guidance/blog/2020/04/using-artificial-intelligence-algorithms
  12. https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government
  13. https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270.pdf
  14. https://www.nist.gov/system/files/documents/2022/03/17/AI-RMF-1stdraft.pdf
  15. https://teamdigitale.governo.it/upload/docs/2017/10/Declaration_and_Annexes_final_26_09_2017.pdf#page=20
  16. https://gpai.ai
  17. https://www.enseignementsup-recherche.gouv.fr/fr/declaration-commune-sur-la-cooperation-franco-americaine-en-science-et-technologie-82546

 

Partager

Derniers articles dans la thématique
, ,