Symposium annuel des lauréats Hoffman-Yee : Stanford HAI partage sa vision de l’IA pour l’humanité

Capture d’écran 2023-12-28 à 12.53.53

L’institut d’Intelligence Artificielle centrée sur l’Humain (HAI) de l’université de Stanford a pour ambition de faire progresser la recherche, l’éducation, la politique et la pratique en intelligence artificielle (IA) afin d’améliorer la condition humaine. Dirigé par des professeurs de plusieurs départements de Stanford et alliant systématiquement disciplines scientifiques et sciences sociales, la recherche se concentre sur (i) le développement de technologies d’IA inspirées par l’intelligence humaine, (ii) l’étude, la prévision et l’orientation de l’impact humain et sociétal de l’IA et (iii) la conception et la création d’applications d’IA qui renforcent les capacités humaines. Le travail politique de HAI vise à favoriser les discussions régionales et nationales qui conduisent à un impact législatif direct.

Anciens et nouveaux lauréats du programme Hoffman-Yee partagent leur vision de l’IA

 

Le Programme de Bourses Hoffman-Yee de Stanford HAI, lancé en 2020 avec le soutien des philanthropes Reid Hoffman et Michelle Yee, est une initiative pluriannuelle visant à financer des recherches innovantes et révolutionnaires en intelligence artificielle, avec une perspective multidisciplinaire, et dans ces 3 domaines clés d’intérêt de HAI listés ci-dessus. 

 

Lors de sa première année, le programme a par exemple financé des équipes travaillant sur des tuteurs en IA, des exosquelettes pour aider les personnes âgées et les personnes en situation de handicap à marcher, ainsi qu’une machine à remonter le temps pour étudier à l’aide de l’IA des concepts historiques. Cette année, HAI a reçu plus de 20 propositions des sept collèges de Stanford. Les propositions ont été soumises à deux tours d’examen par des membres du corps professoral de Stanford et ont également fait l’objet d’un examen éthique et sociétal.

 

Le Symposium des Bourses Hoffman-Yee qui s’est déroulé le 19 septembre à Stanford a mis en lumière le travail des lauréats 2022. A l’issue de cette journée, les équipes concourront pour un financement supplémentaire pouvant atteindre 2 millions de dollars au cours des deux prochaines années. L’objectif de HAI est que les résultats de ces projets jouent un rôle significatif dans la définition des futurs axes de travail en matière d’IA, de l’université à l’industrie, en passant par le gouvernement, les soins de santé et la société civile.

Focus sur quelques projets présentés lors du Symposium Hoffman-Yee de septembre 2023

 

Les 6 lauréats 2022, ainsi que 3 lauréats de 2021, étaient venus présenter les résultats d’une à deux années de recherche sur des sujets aussi variés que :  

  • L’encodage des valeurs sociétales dans les réseaux sociaux
  • Les apports de la génération multimodale dans la résolution de problèmes
  • La définition de nouveau modèles fondamentaux (foundation models) incluant la notion de responsabilité
  • L’explicabilité et l’évaluation de l’IA pour les décisions en matière de santé
  • L’exploitation de l’IA centrée sur l’humain pour améliorer l’intégration des immigrants dans leur pays d’accueil
  • La conception hardware de nouvelles architectures pour le calcul haute performance dédié aux systèmes de connaissance. 

 

Retour sur quelques exemples et messages marquants de cette journée : 

 

  1. Une équipe a exploré l’utilisation des modèles de langage de grande taille (LLMs) pour prédire la complexité du comportement humain, en particulier dans des études scientifiques impliquant des sujets humains. Ils déclinent les résultats de leur recherches selon 3 axes :  
  • Construire de nouvelles théories en sciences sociales : identifier les interventions sur les individus les plus impactantes (ex. messages d’incitation), construire une base de données, identifier les études avec la meilleure chance de succès.
  • Evaluer le coût de l’innovation dans le temps : il est montré que les LLMs peuvent, dans une certaine mesure, prédire les “bons” choix en matière de financement de projets de recherche, sur la base de leur capacité à générer des bénéfices. L’étude, qui identifie les signaux positifs et négatifs de succès – le signal le plus négatif étant, d’après le modèle, le caractère innovant (!) – a été menée sur les plus de 1500 startups et 4500 inventions générées par Stanford depuis 1970. La question – préoccupante s’il en est – de savoir si Stanford HAI envisage d’intégrer cette rationalisation des coûts comme critère de financement futur de se recherche n’a malheureusement pas pu être posée aux intervenants.
  • Enfin la présentation a abordé la manière dont les LLMs pourraient être utilisés pour prédire les résultats d’études expérimentales non encore publiées. Des résultats préliminaires montrent un taux de prédictions correctes d’environ 80%, équivalent à la prédiction par l’humain, mais encore insuffisant pour que ces données enrichissent les bases de données actuelles (publiées, mais souvent biaisées, ou peu reproductibles).

 

  1. Un projet a étudié le rôle des universités dans le développement des modèles fondamentaux en IA, soulignant leur expertise, leur impartialité, et l’accès à des données conséquentes et uniques. Les implications juridiques et politiques, y compris le droit d’auteur et la confidentialité, ont été discutées dans ce contexte. Trois domaines clés ont été explorés : le droit, la santé et la robotique. 
  • On retrouve en droit et en santé les questions d’un accès équitable pour tous, de la gestion des processus de raisonnement dans des procédures complexes, de la manipulation de données multimodales et de la confiance dans la fiabilité de l’IA pour l’aide à la décision. En santé, l’équipe a introduit le modèle BioMedLM, basé sur une grande quantité de publications, et a utilisé des modèles texte-image à des fins éducatives, en publiant des ressources précieuses. 
  • En robotique, les enjeux – très techniques – résident dans l’opérabilité en milieu réel, la quantité limitée de données, l’incarnation physique, la prise de décision séquentielle, la fiabilité et la sécurité. Le modèle VOLTRON, fruit de la collaboration de 18 organisations pour la collecte de données, contribue à diversifier cette collecte et à définir des modèles fondamentaux pour les robots réels, tout en améliorant les évaluations standardisées.

Des outils complémentaires pour les données et pour l’architecture, l’optimisation et l’alignement des modèles ont été présentés. Le besoin de transparence et d’évaluation des modèles IA, dont le fonctionnement interne est souvent inconnu, a été souligné. Peu de modèles en production ont été correctement évalués, et des efforts sont en cours pour évaluer la conformité de modèles fondamentaux avec le projet de loi sur l’IA de l’Union Européenne.

 

  1. La présentation sur l’intégration des valeurs sociétales dans les médias sociaux a souligné les défis techniques liés à l’équilibre entre le plaisir individuel et les valeurs de la société. Une bibliothèque de valeurs sociétales pourrait guider la conception d’algorithmes. Le projet inclut des études empiriques pour définir des « fonctions objectives sociales », comme les valeurs pro-démocratiques, afin de réduire la polarisation sans altérer l’expérience utilisateur. Bien utilisée, l’IA peut identifier ces contenus de manière objective, avec un potentiel transformateur, en particulier dans l’éducation.
  • Les techniques d’interaction homme-machine (HCI) et d’IA sont utilisées pour gérer les compromis entre valeurs dissonnantes, en dehors des valeurs humaines largement partagées (principe de bienveillance, valeurs pro-environnementales).
  • La possibilité est laissée aux utilisateurs d’intervenir dans le processus de filtrage du contenu, en équilibrant restrictions et préservation de la libre expression.
  • La fracture entre les disciplines scientifiques et les sciences sociales (techies-fuzzies divide) doit disparaître pour laisser place à une communauté qui réponde collectivement aux défis posés par les réseaux sociaux.
  • La loi sur les services numériques européens est mise en avant afin d’exiger des plateformes qu’elles rendent compte de l’impact des algorithmes sur la démocratie.

 

  1. Depuis l’été 2023, l’outil GeoMatch aide les services de l’immigration à relocaliser les populations réfugiées au sein d’écosystèmes sociaux et géographiques favorables à leur adaptation (emploi, scolarisation, communautés), ceci dans le respect des valeurs éthiques. Les utilisateurs de GeoMatch reconnaissent la capacité de cet outil à analyser de manière extrêmement rapide et fiable l’impact que l’environnement d’accueil dans un pays hôte aura sur l’expérience d’immigration des réfugiés. Le succès de GeoMatch dépend entièrement de la capacité des pays à partager des données multi-paramètres provenant de lieux d’accueil potentiels. Plus de 200 immigrants ont été placés avec succès en deux mois. Les points d’attention sont les suivants :
  • Il faut faire preuve de prudence quant aux données historiques, surtout dans des contextes changeants comme l’ère post-COVID. Le modèle se base sur des données récentes pour des résultats à court terme et décompose les trajectoires de prédiction en conséquence.
  • L’attribution des réfugiés à des emplacements appropriés est décrite comme un problème complexe et difficile, nécessitant l’intégration des besoins et des perspectives des réfugiés. La sociologie joue un rôle crucial à cet égard.

 

Plus d’informations : 

 

Page d’accueil de Stanford HAI

Page d’accueil du Hoffman-Yee Symposium – Stanford University

Programme de bourses Hoffman-Yee Research Grants | Stanford HAI

 

Signature : 

 

Emmanuelle Pauliac-Vaujour, attachée pour la Science et la technologie, Consulat Général de France à San Francisco, [email protected] 

Valentine Asseman, chargée de mission pour la Science et la Technologie, Consulat Général de France à San Francisco, [email protected] 

 

Partager

Derniers articles dans la thématique
,