National Strategic Computing Reserve – Le calcul intensif au service de la gestion de crise

High-Performance Causal Inference for COVID-19 Mitigation and Response project modeling using GPU-accelerated HPC https://covid19-hpc-consortium.org

Une stratégie numérique de la Maison Blanche dans un schéma de résilience nationale face aux crises

La pandémie de COVID-19 a mis en lumière la nécessité croissante du recours aux instruments numériques d’acquisition, de stockage, de simulation et d’analyse de données au service de la recherche scientifique. Le traitement des données de santé comme ressource clé dans la lutte contre la récente pandémie génère des besoins extraordinaires, tant matériels qu’immatériels, notamment en puissance de calcul, en expertise technologique et mutualisation de la connaissance.

Initiée le 23 Mars 2020, l’expérience américaine COVID-19 High Performance Computing (HPC) Consortium 1  a contribué à l’évolution favorable de la situation sanitaire et permis au pouvoir exécutif de tester une stratégie structurée ayant pour objectif de garantir la résilience du système de santé, de la sécurité intérieure et de la compétitivité économique : la National Strategic Computing Reserve (NSCR) 2.

COVID-19 HPC Consortium : De la vision philanthropique à la prouesse scientifique

« [Les] systèmes de calcul à haute performance permettent aux chercheurs d’effectuer un très grand nombre de calculs en épidémiologie, en bio-informatique et en modélisation moléculaire. Ces expériences prendraient des années si elles étaient réalisées à la main, ou des mois si elles étaient traitées sur des plateformes informatiques traditionnelles plus lentes » 3 selon Dario Gil, directeur d’IBM Research et fondateur de l’initiative collaborative COVID-19 HPC Consortium. Il s’agit alors de rassembler le Gouvernement fédéral, l’industrie et les universités afin de mettre à disposition de la recherche scientifique la plus grosse ressource mondiale de puissance de calcul, dans un schéma de lutte contre la pandémie de COVID-19.

Cette initiative a aussitôt été appuyée par le Bureau Ovale, le Département de l’Energie (DoE), puis par une cohorte d’acteurs institutionnels, académiques et industriels, tels que la National Science Foundation (NSF), la NASA, le MIT, Argonne National Lab, Google et Microsoft.

Au 1er anniversaire du programme, une centaine de projets de recherche relatifs à l’étude du SARS-CoV-2 ont vu le jour 4. Ces projets ont continuellement irrigué la communauté scientifique internationale et, par extension, contribué à la rapidité et à l’efficacité de l’endiguement de la pandémie. Parmi eux, la modélisation de l’interaction de combinaisons de molécules thérapeutiques avec l’expression du génome ARN du virus pour tester d’éventuels traitements. Autres applications: la simulation de flux d’air en lieux clos pour observer la diffusion et la transmission aérienne des agents infectieux ou encore la caractérisation à l’échelle moléculaire de la protéine S du Coronavirus pour cibler sa partie trimérique.

En chiffres, ce consortium de calcul exascale regroupe à l’heure actuelle :

  • 43 membres issus du Gouvernement, de l’industrie ou de la recherche ;
  • 600 petaflops (600.1015 floating-point operations) ;
  • 6 800 000 de cœurs ; et
  • 50 000 GPUs. 5

Au-delà de ces chiffres exceptionnels, la coopération entre établissements publics et privés, et la mobilisation simultanée du Gouvernement fédéral, des universités et des industries ont été saluées par le Government Accountability Office (GAO) 6, homologue outre-Atlantique de notre Cour des Comptes, en parallèle de recommandations pour l’exécution du programme National Strategic Computing Initiative (NSCI) 7.

La liste complète des parties prenantes est disponible sur le site officiel du COVID-19 High Performance Computing Consortium.

Les conclusions probantes de l’évaluation du consortium ont motivé l’engagement de travaux supplémentaires dans la définition de son périmètre et dans l’optimisation de son fonctionnement pour de potentielles mobilisations futures.

National Strategic Computing Reserve : Vers un standard de gestion de crise ?

Après émission d’une Demande d’information (Request For Information – RFI) 8 en Décembre dernier de la part de la NSF et de l’Office for Science and Technology Policy (OSTP), le rapport du NSTC et de ses Subcommittee on Future Advanced Computing Ecosystem et Subcommittee on Networking & Information Technology Research and Development, a été publié ce mois-ci. Purement tirées de l’expérience du COVID-19 HPC Consortium, les conclusions de ce rapport permettent, dans une certaine mesure, de théoriser les travaux qui ont été entrepris de façon itérative jusqu’ici et d’envisager des perspectives de développement du programme à l’avenir.

Malgré les résultats encourageants de ladite expérience, le rapport propose des pistes d’amélioration pour optimiser la réactivité et l’efficacité d’un tel dispositif en cas de nouvelle crise sanitaire ou de catastrophe naturelle, notamment dans le besoin d’étendre la recherche scientifique au sein de la NSCR au-delà de la recherche fondamentale, d’engager des accords prénégociés avec les institutions (NIH, CDC, FEMA, etc.) et de mettre à disposition des chercheurs, de façon sécurisée et si nécessaire, des données propriétaires privées.

« La NSCR est imaginée comme une coalition d’experts et de fournisseurs de ressources (de calcul, de logiciels, de données et d’expertise technique) issue du Gouvernement, du monde universitaire, de fondations à but non lucratif et de l’industrie, soutenus par des structures et des mécanismes de coordination appropriés, qui peuvent être mobilisés rapidement pour fournir des capacités et des services informatiques essentiels en cas de besoin urgent. » 2

La NSCR serait alors pensée en tant que coopération de trois composantes humaines :

  • Fournisseurs de ressources : industries et centre de recherche mettant à disposition des ressources en calcul intensif, logiciels, services, expertise technologique, données, etc. ;
  • Utilisateurs: communauté scientifique qui produit un travail de recherche en réponse à l’urgence, qui fournit une liste des ressources dont elle a besoin pour ce faire et qui transmet ses résultats dans le domaine public, dans une démarche de dissémination ; et
  • Direction du programme : entité de coordination et de pilotage de la NSCR.

Ainsi que de cinq composantes opérationnelles :

  • Définition de seuils et de facteurs de déclenchement et d’interruption de la NSCR ;
  • Partenariats et accords entre les parties prenantes pour lever les barrières commerciales en temps de crise et garantir un accès aux technologies à la pointe de l’état de l’art ;
  • Allocation des ressources qui passe par l’évaluation de la nécessité, de la proportionnalité et de l’efficacité des ressources demandées par les utilisateurs ;
  • Exercices de simulation d’urgence à raison d’une fois par an ; et
  • Contrôle opéré par un corps fédéral indépendant de la réserve et qui assure la coordination avec les agences fédérales, la conformité légale, la sécurité des données et l’évaluation de l’efficacité du programme.

Initiatives et perspectives européennes

L’efficacité et les travaux d’optimisation connexes autour du programme COVID-19 HPC Consortium démontrent l’intérêt d’un tel dispositif pour la résilience scientifique et économique d’un État en situation de crise.

L’Union Européenne coopère avec le consortium américain via l’initiative PRACE (Partnership for Advanced Computing in Europe) 9, à travers le partage et l’échange de connaissances acquises lors de ses efforts durant la crise sanitaire. 

Le programme européen PRACE lancé en 2010 avait déjà pour objectif de « fournir l’accès à des ressources et à des services de pointe en matière de calcul et de gestion des données pour les applications scientifiques et d’ingénierie à grande échelle et au niveau de performance le plus élevé ». 

Dans sa lutte contre la pandémie, l’UE a annoncé PRACE versus COVID-19, sa propre initiative de mise à disposition de ressources HPC au service de la recherche scientifique. PRACE vs COVID-19 s’est particulièrement illustrée par la création d’un appel à projets (AAP) récompensant, entre autres, une trentaine de programmes de recherche biomoléculaire, bioinformatique, de biosimulations et d’analyses épidémiologiques nécessitant des capacités de calcul importantes.

La liste des lauréats de l’AAP est disponible ici.

Ce programme est accompagné par la Distributed European Computing Initiative (DECI), combinée avec la pan-European Collaborative Data Infrastructure (EUDAT), conçue pour les projets qui nécessitent l’accès à des ressources et à de la propriété intellectuelle indisponibles dans le pays de recherche initial et l’accès à des infrastructures de calcul intensif d’échelle nationale, dits Tier-1. 10

L’Union Européenne est favorablement positionnée dans la course mondiale à l’HPC depuis le lancement en 2018 de l’initiative EuroHPC JU (European High Performance Computing Joint Undertaking) et dispose sur son territoire de 7 centres HPC d’échelle européenne, dits Tier-0, pour une capacité de calcul totale de 34.8 petaflops. 10

Les machines et centres européens sont actuellement :

  • Piz Daint, CSCS, Suisse;
  • Marconi, CINECA, Italie;
  • SuperMUC, GCS@LRZ, Allemagne;
  • Hazel Hen, GCS@HLRS, Allemagne;
  • Juqueen, GCS@JSC, Allemagne; 
  • CURIE, GENCI@CEA, France; et
  • MareNostrum, BSC, Espagne.

Sur la base des travaux menés par l’administration américaine sur la National Strategic Computing Reserve et des politiques numériques employées en réponse à la pandémie de COVID-19, l’Union Européenne possède désormais les outils lui permettant de poursuivre ses efforts de développement de l’écosystème de calcul intensif domestique et d’annoncer, à son tour, son plan HPC de résilience face aux crises futures.

 

Rédacteur:

Maxence Balsalobre
Attaché adjoint pour la Science et la Technologie, Washington D.C.
Nouvelles Technologies de l’Information, de la Communication & de la Sécurité
[email protected]

Références:

  1. COVID-19 HPC Consortium (covid19-hpc-consortium.org)
  2. National Strategic Computing Reserve: A Blueprint (whitehouse.gov)
  3. IBM, White House, Department of Energy, and others launch consortium to give coronavirus researchers access to supercomputers | VentureBeat
  4. Projects | COVID-19 HPC Consortium (covid19-hpc-consortium.org)
  5. The Blueprint for the National Strategic Computing Reserve (hpcwire.com)
  6. GAO Assesses National Strategic Computing Initiative Progress (hpcwire.com)
  7. High-Performance Computing: Advances Made Towards Implementing the National Strategy, but Better Reporting and a More Detailed Plan Are Needed | U.S. GAO
  8. Federal Register :: Request for Information on Potential Concepts and Approaches for a National Strategic Computing Reserve (NSCR)
  9. Introduction – PRACE (prace-ri.eu)
  10. https://www.archer.ac.uk/training/course-material/2017/11/intro-epcc/slides/L12-PRACE.pdf

Partager

Derniers articles dans la thématique
, , ,