« La Saga A(G)I”, épisode 3: “Transformation sociétale majeure” par l’IA – à quoi devons-nous nous attendre et pourquoi est-ce perçu comme une menace ?

GPT4 (pour Generative Pre-trained Transformer de 4ème génération) est la dernière version du large langage model (LLM) GPT3.5, l’algorithme développé par OpenAI et utilisé par son désormais célèbre robot conversationnel ChatGPT. A la différence de GPT3.5, GPT4 inclut également le traitement des images et des vidéos – en entrée uniquement, pas encore en sortie – ce qui en fait un large multimodal model (LMM). Comme nous le détaillerons ensuite, les capacités de GPT4 se trouvent décuplées par rapport à celles de son prédécesseur et il faudra du temps à la communauté – qui le découvre tout juste – pour en appréhender les limites. 

Or le temps est précisément la variable qui préoccupe les experts aujourd’hui. En effet, dès le 28 mars, soit 14 jours après l’annonce de GPT4, le développeur Siqi Chen a prédit dans un article la fin de l’entraînement du modèle de génération suivante, GPT-5, par lequel OpenAI espère atteindre l’IA généralisée (AGI), avant la fin de l’année 2023 (1). L’AGI est un concept quelque peu fantasmagorique qui fait référence à “la capacité d’une IA de comprendre et d’apprendre n’importe quelle tâche ou idée accessible à un humain. En d’autres termes, une IA qui aurait atteint l’AGI serait indiscernable d’un humain sur le plan de ses capacités”. 

Cette annonce n’a pas été confirmée par OpenAI, qui a cependant annoncé vouloir introduire la version 4.5 de son algorithme en septembre ou octobre 2023, une version présentée “comme une version intermédiaire entre GPT4 et GPT5”. Cette frénésie autour de l’IA a de quoi provoquer une certaine nervosité parmi les experts, les législateurs et le grand public. 

Nous donnerons à travers cette lecture un éclairage sur les conséquences possibles de GPT4 et ses alter-egos sur nos métiers actuels, en proposant un éclairage pratico-pratique sur les adaptations auxquelles nous serons très bientôt confrontés. Afin de comprendre en quoi les avancées technologiques dont nous sommes actuellement témoins ont une dimension révolutionnaire, redonnons quelques éléments de contexte.

Rappel du contexte : les différents positionnements au sein de la communauté de l’IA

Où en sommes-nous du déploiement des LLMs auprès du grand public?

Le mois de mars 2023 a vu fleurir une multitude d’annonces toutes plus fracassantes les unes que les autres autour de l’IA générative. Depuis près de trois mois et demi, le grand public s’est amusé des capacités à la fois grandioses et limitées de ChatGPT (GPT-3.5). Les experts ont également vu en lui un fantastique nouvel objet d’étude. Ainsi, le temps d’écrire ces lignes, des dizaines de nouveaux articles seront parus concernant de nouveaux LLM développés pour des sommes dérisoires (2) ou la démultiplication des capacités des IA par le biais de “plug-in” (3)

Face à cet emballement, la communauté des technologies numériques – à l’instar d’Elon Musk, qui n’a jamais été un fervent défenseur de ChatGPT par ailleurs –  a finalement endossé la responsabilité morale de préconiser la suspension temporaire de ces développements via l’Open Letter du Future of Life Institute intitulée « Pause Giant AI Experiments ». L’objectif de cette suspension étant de permettre à nos sociétés de s’adapter à ces technologies et éviter de provoquer une rupture sociétale majeure à l’échelle mondiale

GPT-4 : de quoi parle-t-on ?

GPT-4 est donc le dernier produit d’OpenAI, par lequel une nouvelle étape semble franchie dans les performances offertes par l’IA générative pour le grand public. Une version préliminaire de GPT-4 était déjà implémentée dans la version payante de ChatGPT, ChatGPT+, ainsi que dans la nouvelle version du navigateur Bing, de Microsoft, depuis son lancement en février 2023. Depuis le 13 mars, la version intégrale de GPT4 est accessible uniquement pour les abonnés à ChatGPT+, ou bien sur Poe, à raison d’une requête par jour. 

Sur le plan des performances, en comparaison de GPT-3.5 (ChatGPT), GPT-4 : 

  • dispose d’une base de données dynamique, puisqu’il peut collecter des informations récentes par l’intermédiaire du web;
  • peut recevoir des requêtes allant jusqu’à 25000 mots;
  • possède 10 fois plus de paramètres et a donc des capacités d’apprentissage décuplées;
  • est particulièrement adapté pour prédire des scénarios multiples en réponse à une requête. En ce sens, OpenAI considère que GPT-4 présente de bien meilleures “capacités de raisonnement” que ses prédécesseurs;
  • formule des réponses avec un degré de concision supérieur;
  • est moins dépendant, sur le plan de l’apprentissage, du détail des requêtes formulées, ce qui le rend plus robuste face aux erreurs introduites par l’humain;
  • reste relativement rapide, bien qu’il génère des réponses d’une plus grande complexité, associées à un accroissement significatif du coût de calcul associé.

En aparté, sur ce dernier point : la question de l’empreinte écologique des LLMs est étonnamment absente de la plupart des écrits, interviews et manifestes qui inondent internet et les réseaux sociaux. Il s’agit pourtant d’une question absolument cruciale – il faut donc espérer que les questions environnementales demeurent bien au coeur des stratégies de développement des grands acteurs de l’IA, – en témoigne par exemple le concours lancé par Mozilla le 15 mars pour proposer des approches innovantes pour une IA éthique et responsable (4)

Les LLMs, GPT4, GPT5, devons-nous craindre leur impact ?

Le 14 mars 2023, l’homme d’affaires et technophile Reid Hoffman a co-publié avec GPT4 un ouvrage qui traite de la question des changements liés à l’IA dans nos sociétés et dans le monde du travail (5). A travers une conversation ouverte et vraisemblablement honnête, cet ouvrage – le tout premier “co-signé” par GPT4 – interroge le modèle lui-même sur la manière dont les hommes devraient réagir au déploiement à grande échelle de l’IA générative. 

Cet ouvrage soulève notamment un point important, à savoir que voir l’émergence des IA comme une opportunité plutôt qu’une menace est avant tout un choix. Dans le cas des LLM, le choix qui est le plus communément fait est celui de l’augmentation des capacités (techniques) humaines. Ces capacités distinctement humaines – qui méritent qu’on y consacre désormais nos efforts – peuvent par exemple se décliner en suivant les trois grands principes suivants : 

  • se spécialiser dans le fait de savoir formuler les meilleures requêtes
  • développer des idées et des compétences qui ne sont pas disponibles dans les bases d’entraînement utilisées par les réseaux d’apprentissage profond
  • transformer des idées en actions

Un positionnement que le robot lui-même semble enclin à défendre : “I agree. Asking the best questions requires curiosity, creativity, and critical thinking, which are not easily replicated or replaced by AI. Learning insights or skills that are not in the training data requires exploration, experimentation, and discovery, which are not always predictable or optimal for AI. Turning insights into actions requires judgment, communication, and leadership, which are not always consistent or effective for AI.”

Par ailleurs, il est intéressant de noter que la récente lettre ouverte demandant l’arrêt temporaire des développements de l’IA pour 6 mois ne met aucunement en cause la technologie : cette lettre soutient le développement de modèles tels que GPT4 et GPT5 et les bénéfices qui peuvent en découler. L’objectif de cette lettre est avant tout de replacer les décisions concernant le cadrage de l’IA entre les mains des décideurs, en concertation avec les acteurs technologiques. Les auteurs préconisent que soit mis en place un cadre permettant d’auditer et de réguler les développements de l’IA afin que leur impact reste bénéfique pour l’humanité et nos sociétés, et de prévoir un système de sanction pour les contrevenants.

« L’humanité peut jouir d’un avenir florissant grâce à l’IA. Ayants réussi à créer de puissants systèmes d’IA, nous pouvons maintenant profiter d’un « été de l’IA » au cours duquel nous récolterons les fruits de nos efforts, nous concevrons ces systèmes pour le plus grand bénéfice de tous et nous donnerons à la société une chance de s’adapter. La société a déjà mis en pause d’autres technologies ayant des effets potentiellement catastrophiques sur la société [notamment le clonage humain, la modification de la lignée germinale humaine, la recherche sur le gain de fonction et l’eugénisme]. Nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne”.

Vagues technologiques et transformation des métiers

L’histoire moderne témoigne de nombreuses vagues technologiques défiant les connaissances et les compétences humaines. De la même manière, l’IA générative représente aujourd’hui un défi apparemment colossal, suscitant des inquiétudes quant à son impact sur nos société, et notamment sur la transformation de nos métiers. 

Les révolutions industrielles, puis les révolutions technologiques, n’ont eu de cesse de transformer nos métiers et nos vies. Prenons l’exemple de l’accès à l’information : 

  • La radio, puis la télévision hertzienne ont tout d’abord amené l’information en temps réel au coeur de tous les foyers – sur une échelle de temps de quasiment un siècle (1840-1950) ;
  • Puis l’internet – en plusieurs vagues, jusqu’à l’internet haut débit – a permis de toucher un public de plus en plus large et de démocratiser le personal computer (1980-2000) ;
  • Les réseaux sociaux nous ont ensuite appris à communiquer différemment et ont vu l’émergence de la désinformation à grande échelle (2000-2010) ;
  • Plus récemment, les smartphones ont ouvert la voie de l’accès à l’information “partout, tout le temps et par tous”, avec cette particularité inédite de ne requérir aucun niveau préalable d’expertise – ce sont d’ailleurs les premiers équipements électroniques complexes à être commercialisés sans notice (2010-2020) ;
  • Enfin, la pandémie de COVID-19 a ouvert la voie au télétravail généralisé et – dans sa conception la plus extrême – aux interactions dans le métaverse (2020-aujourd’hui).

La voie professionnelle qui a sans doute le plus pâti de ces révolutions successives est celle de la presse écrite, qui a quasiment disparu aujourd’hui mis à part dans les domaines où elle a su se spécialiser suffisamment. En revanche, de nombreux métiers ont été créés au fil du temps, qui s’appuient sur des compétences journalistiques, allant du reporter de terrain au community manager.

L’ouvrage “The Micro Millenium” de l’auteur Christopher Evans, paru en 1979 (voir la photo de couverture), abordait déjà l’idée d’un homme subissant les révolutions technologiques. Dans cet ouvrage, le discours se concentre sur les avancées de l’époque en matière d’informatique et leur impact sur nos sociétés. L’auteur y fait notamment mention que la « révolution informatique (..) comme la révolution industrielle, aura un impact écrasant et global, affectant chaque être humain sur terre dans tous les aspects de sa vie ». Il est intéressant de voir à quel point les avancées technologiques, bien que de nature très différentes, portent des questionnements très similaires à travers les siècles.

Quel est le rôle précis de l’IA dans cette transformation ?

Mais ne serait-ce pas trop simpliste de penser que l’évolution des technologies soit la seule source de transformation de nos métiers ? C’est l’idée soulevée par Patrick Verley dès 2015 dans la revue Marché et organisations (6). Verley y défend notamment la thèse selon laquelle considérer un facteur technologique qui impacterait dans distinction tous les autres niveaux de l’économie et de la société est une vue schématique et réductrice . On peut projeter cette hypothèse de nos jours pour ce qui concerne l’impact de l’IA sur les métiers du numérique : nos métiers se verront transformés par les évolutions des LLMs, mais aussi par leur adoption plus ou moins rapide, les conditions de cette adoption, le coût associé (financier, environnemental, sociétal), notre capacité à l’utiliser avec un niveau plus ou moins élevé d’expertise, sa diffusion géographique,… et peut-être l’apparition d’une autre technologie encore plus puissante ! (à l’image du metaverse, en perte de vitesse face à la vague de l’IA). 

Ainsi la transformation de nos métiers ne serait pas la seule conséquence de la généralisation des LLMs, mais plutôt la conséquence de dynamiques globales, qui ne sont pas sans rappeler le concept “d’approche systémique” – par définition la seule approche recevable lorsque l’on atteint un niveau de complexité quasi inintelligible, comme c’est le cas ici. Et ce concept est justement celui porté par la lettre ouverte revendiquant la pause des développements autour de l’IA générative, qui replace les responsabilités au niveau des décideurs globaux – ceux qui doivent en principe avoir une vision complète du “système” dans son ensemble. 

Accompagner la transition par tous les moyens disponibles

Ce réalignement des responsabilités ne doit néanmoins pas nous dispenser d’initier à notre niveau des actions de sensibilisation à la bonne utilisation de l’IA. Dans la culture scientifique, cela s’apparente au “devoir de transmission”. Dans notre précédent article, nous faisions référence à l’apparition de la photographie pour traiter de la question des droits d’auteur. Cet exemple illustre aussi parfaitement la question du devoir de transmission : 

  • le devoir des scientifiques d’une part, qui ont développé une technologie complexe à base de lumière et de systèmes optiques, l’ont rendue transportable, utilisable avec un niveau d’expertise de plus en plus faible, et avec une fidélité de plus en plus probante ;
  • et le devoir des artistes d’autre part, qui ont appris à maîtriser cette technologie pour décupler la portée et l’efficacité de leur travail, tout en en démocratisant l’usage. 

En usant de leur savoir et de leur talent pour démontrer les prouesses dont ces technologies étaient capables, ces experts ont œuvré pour leur adoption; une première fois pour l’adoption de la photographie argentique, et une seconde fois pour l’adoption de la photographie numérique.

Cette technologie a pourtant eu – et connaît encore – son lot d’utilisations malveillantes (violation de la vie privée, photos retouchées, etc.). Face à ces dérives dont ils ne peuvent endosser la responsabilité, la seule réponse possible de nos “ambassadeurs” est alors de mettre en lumière un nombre de plus en plus important d’utilisations positives et bienveillantes, et de faire appel au sens critique du grand public. 

Ce principe “d’inonder” le monde avec des utilisations positives d’une technologie a déjà été mentionné à plusieurs reprises ces dernières semaines par les défenseurs de l’IA, comme l’une des mesures possible face aux dérives. Reste simplement à identifier à qui revient la lourde tâche de jouer les “ambassadeurs” de l’IA générative aux côtés des technologues… Nous nous appuyons sur quelques exemples ci-dessous pour explorer les pistes possibles dans différents cœurs de métier.

Révéler le potentiel de l’IA

Créer de nouveaux métiers pour l’homme, mais aussi pour l’IA

A l’instar des précédentes révolutions technologiques, les LLMs seront à l’origine de la disparition d’un grand nombre de tâches dans le domaine professionnel, en particulier des tâches informatiques et intellectuelles. Ceci s’accompagnera nécessairement d’une rationalisation des ressources humaines, et donc d’une disparition d’un certain nombre de postes dans l’entreprise. En particulier, les activités associées à un travail de rédaction pourraient être impactées plus sévèrement que les autres, ChatGPT et GPT4 ayant démontré des aptitudes bien supérieures à la production humaine dans ce domaine (en termes de rapidité notamment, et souvent de qualité). Dès janvier 2023, nombre de journalistes se sont émus de la possible disparition de leur métier. Les créateurs de contenu pour le web et les réseaux sociaux sont également concernés, ainsi qu’une autre grande catégorie de métiers, à savoir les métiers de la création artistique – de par la multiplication des outils d’IA dédiés au graphisme et à l’audiovisuel – et du codage informatique – une fonction que ChatGPT réalise presque à la perfection.

Comme dans toute révolution industrielle, de nouveaux métiers doivent également émerger pour répondre aux nouvelles compétences mises en jeu dans une utilisation experte de l’IA générative (la génération de requête, par exemple). Si les cursus universitaires doivent s’adapter à ces nouveaux enjeux du monde du travail, la priorité se situe sans aucun doute sur les personnes actuellement en poste qui vont devoir développer de nouvelles compétences, par le biais de la formation continue. Il est probable que les dispositifs existants à l’heure actuelle ne sachent répondre à l’urgence avec laquelle cette adaptation doit avoir lieu. Il semble judicieux à ce stade de considérer, par exemple, l’exploitation des capacités exceptionnelles de l’IA pour combler les lacunes de ce système.

Ensuite, il est important d’encadrer l’utilisation faite par les entreprises des IA, et la possible substitution de personnels par des IA. En effet, la définition de tâches dédiées pour les IA, et la mise en place de contrôles du travail des IA, feront l’objet d’un tout nouveau champ professionnel. La difficulté à ce stade repose surtout dans la manière de mettre à disposition de ces experts des outils d’évaluation quantitatifs (et auditables) de l’IA

Enfin, pour ce qui concerne le processus créatif, l’évaluation s’annonce encore plus délicate. Au-delà du fait que l’IA doive, ou non, être considérée comme auteur d’œuvres artistiques – un sujet que nous avons abordé précédemment (7) – la place de l’IA aux côtés d’auteurs (ou de manière indépendante dans le cas extrême !) doit également être discutée et arbitrée. Pour revenir à Reid Hoffman et son ouvrage co-publié avec GPT4, par exemple : comment juger de la qualité artistique d’une telle création au même niveau qu’un ouvrage écrit entièrement manuellement (sans “assistance”) ? Dans son ouvrage, Hoffman explique justement le processus créatif et ce qui donne de la valeur à ce processus. Il justifie la co-publication avec une IA par le temps passé à apprendre à manipuler l’outil. Un temps suffisant pour savoir en prédire le fonctionnement et les limites avec suffisamment de clarté. Et donc non pas un temps “gagné”, mais un temps “investi” qu’Hoffman ne pourra véritablement valoriser qu’en poursuivant ce co-autorat avec GPT4 dans de futurs ouvrages.

L’inclusion de l’IA dans le monde du travail n’est donc pas si triviale, car elle requiert de mettre en place l’infrastructure autour de cette intégration (développement de nouvelles expertises, processus de vérification et d’audit, redéfinition des processus, etc.). Le rôle des décideurs et des employeurs est aussi de s’assurer que chaque utilisateur puisse démontrer une clarté d’esprit et d’analyse – équivalente à celle d’Hoffman avec GPT4 – avant de pouvoir inclure l’IA dans son travail. Une tâche qui finalement devrait maintenir au premier plan la responsabilité et le rôle de l’humain, quelle que soit la redistribution des tâches possibles dans son domaine particulier d’expertise.

Augmenter l’humain

L’approche la plus rationnelle à ce stade semble donc de tenter d’utiliser l’IA pour améliorer nos capacités (humaines, donc par définition limitées) dans nos métiers. C’est d’ailleurs le point de vue largement adopté par la communauté des scientifiques et des technologues à ce stade. Voyons quelles seraient les grandes lignes d’une telle adoption.

Repenser l’automatisation des tâches comme une augmentation des capacités

Le monde de l’industrie fait partie des domaines où l’IA est déjà déployée de façon significative. En effet, l’émergence de la notion de “jumeau numérique” dans la deuxième moitié des années 2010 a transformé la manière dont est géré le fonctionnement des usines, privilégiant la productivité du site, sa consommation énergétique ou encore la maintenance prédictive afin de minimiser les coûts associés aux pannes. Cependant le jumeau numérique (qui consiste à créer une image numérique de l’usine afin d’optimiser des séquences de fonctionnement, par exemple) est un outil qui requiert un très haut niveau d’expertise. Ce type d’outil nécessite que l’entreprise mobilise de nouvelles ressources humaines et matérielles, qui ne correspondent pas nécessairement à son cœur de métier initial. La puissance de l’IA réside dans le fait qu’elle est très facilement implémentable à l’échelle d’un seul employé, sans expertise préalable. Ainsi, l’IA pourrait contribuer à améliorer la productivité des employés en les aidant à organiser leur travail, en leur fournissant un feedback sur leur activité ou encore en leur fournissant une meilleure compréhension de leur environnement de travail. Il semble important de promouvoir ces utilisations de l’IA afin de répondre à la préoccupation de la disparition des métiers fortement automatisés dans cette branche professionnelle.

Conforter les résultats d’une expertise dans les domaines les plus pointus de la science

Dans le domaine de la médecine, l’IA est déjà utilisée aujourd’hui pour lire des documents médicaux avec un taux de réussite équivalent à l’homme, pour identifier des parcours de soins ou des traitements adaptés à chaque patient, ou encore pour faire réapprendre aux patients par le biais de dispositifs médicaux (implantés ou portés) des fonctions motrices ou nerveuses. C’est un domaine où ces outils seront très largement et très rapidement adoptés, du fait de la criticité des expertises mises en jeu. Et ces innovations sont, le plus souvent, portées par des startups biomédicales qui sont extrêmement promptes à intégrer les dernières technologies à leurs produits.

C’est pourquoi il n’est pas surprenant que la communauté des médecins – à l’image des communautés scientifiques dont l’expertise est excessivement pointue, de manière générale – se mobilise déjà pour répondre aux enjeux de l’IA pour la santé. Par exemple, comment l’IA va-t-elle permettre de créer de nouveaux modèles de soins distribués, impliquant le monitoring de patient à distance, et ainsi accroître l’impact de la médecine délocalisée ? Et comment les systèmes de santé peuvent-ils mieux prendre en charge ces nouveaux modèles de soin ? Les soins à distance sont souvent peu soutenables pour de longues périodes de temps et il est nécessaire de repenser ce service pour le suivi des maladies chroniques, par exemple. L’IA peut probablement contribuer à ce changement de paradigme de manière efficace, en offrant également la possibilité d’un suivi de soin global de la condition du patient et un modèle de remboursement viable. 

Enfin concernant le geste médical lui-même, les métiers impliquant de prendre des décisions à très fort impact pourraient voir l’IA comme une manière de déplacer ou de distribuer la charge mentale et émotionnelle associée à de telles décisions, préservant ainsi ses personnels hautement qualifiés. Bien entendu, on doit également faire l’hypothèse ici d’une utilisation éclairée des LLMs, et donc de la formation des personnels.

Trouver des solutions dans des situations d’urgence

Parmi les sujets qui mobilisent et inquiètent les communautés scientifiques, on trouve aux côtés des LLMs la lutte contre le réchauffement climatique. Alors que la population terrestre ne semble pas être en mesure d’appliquer les mesures drastiques qui seraient nécessaires dès aujourd’hui pour avoir l’espoir de préserver tout ou partie de notre planète, l’IA pourrait offrir l’accélération dont nous avons besoin pour relever les défis qui nous attendent (malgré le coût énergétique colossal associé à l’apprentissage de ces modèles).

De nombreuses actions existent déjà, telles que AI for the Planet (8) qui explorent simultanément les 4 leviers que sont l’évaluation, la mitigation, l’adaptation et la résilience. L’IA est également largement utilisée pour identifier et amplifier les actions collaboratives ou les comportements à impact positif pour le climat. 

Si l’information se fait – comme dans le cas des LLMs, dans une certaine mesure – par le biais de figures de références ou d’associatifs relativement influents, la concrétisation des actions est le plus souvent l’adage de petites startups – comme dans le cas de la recherche biomédicale – dont bon nombre ont déjà intégré les récents développements de l’IA. Parmi celles-ci, on retrouve par exemple Blue Sky Analytics (analyse d’images satellites), Cloud to Street (catastrophes naturelles), FarmWise (agriTech) ou encore DeepSea Technologies (amélioration de la chaîne logistique). On constate que ce modèle d’entreprise, flexible et réactif, est particulièrement favorable à la percolation de l’IA au sein d’un domaine d’activité professionnel. 

La prochaine étape consisterait probablement à consulter GPT4 – dont l’une des particularités est d’être particulièrement adapté pour la génération de scénarios – quant à la coordination de ces actions en vue d’établir une trajectoire optimale de sortie de crise. Un sujet encore peu documenté à ce stade mais qui devrait vraisemblablement émerger très prochainement au sein de cette communauté. 

Il existe cependant des scénarios de crise où l’IA n’a pas encore convaincu, en particulier lorsque la sécurité nationale d’un Etat est impactée. Ainsi, l’utilisation de l’IA dans le conflit en Ukraine (9) ou sur les questions de sécurité et de défense reste un sujet sensible à cette heure, et dont nous ne traiterons pas plus avant ici. 

Connaître les limites de l’IA et la valeur de l’humain

Les LLMs vont donc s’avérer très utiles – lorsque ce n’est pas déjà le cas – dans un très grand nombre de domaines professionnels, sans pour autant être en mesure de remplacer l’humain, comme l’illustrent les quelques contre-exemples suivants.

Quand une prise de décision ne peut pas se baser uniquement sur des faits – exemple de la justice

L’utilisation de l’IA en justice a déjà fait plusieurs fois les gros titres des journaux. En cause : les biais introduits par des bases de données déséquilibrées en faveur ou en défaveur de personnes d’origines ethniques spécifiques. Au-delà de l’incapacité des modèles actuels – qui sera sans doute un jour corrigée – se pose la question du jugement humain. Car bien qu’une cour se doive d’être impartiale, dans les faits un juge prendra en compte de nombreux autres facteurs afin de déterminer le jugement à appliquer. Il pourra se montrer impartial mais clément, par exemple, là où une IA aurait prononcé une sanction. Le rôle et la valeur ajoutée de l’IA par rapport à l’humain dans ces situations ne sont pas triviaux et touchent à des sujets d’une extrême sensibilité, où un système de décision automatique pourrait aller jusqu’à déséquilibrer le système en place. 

La gestion des humains est une affaire d’humain – exemple du management en temps de pandémie

Si les LLMs peuvent représenter des compagnons utiles dans la prise de décision – dès lors que les enjeux ne sont pas aussi critiques que dans le cas cité précédemment – en revanche ils ont le défaut majeur de ne pas intégrer toutes les données “perçues” par l’homme. Or dans un environnement de travail, ces données sont absolument cruciales pour définir les relations humaines. En France, en particulier, c’est une leçon que nous avons apprise durement lors de la pandémie : pour les français qui cultivent un grand sens de la convivialité, les tâches de management sont difficiles à conduire à distance et sur la base d’éléments rapportés uniquement. L’absence de “signaux faibles” captés à l’occasion d’une interaction humaine altère de façon considérable le processus décisionnel, qui s’appuie par construction sur un grand nombre d’éléments implicites, autant qu’explicites. Il semble que cela soit moins vrai aux Etats-Unis, par exemple, où les interactions professionnelles sont traditionnellement beaucoup plus impersonnelles et/ou superficielles. Ainsi l’adoption de l’IA pour des tâches de management sera très fortement influencée par la culture d’entreprise locale, ce qui pourrait constituer un frein sérieux à son adoption généralisée.

Le risque du nivelage par le bas – exemple de la création artistique

Enfin, si on regarde plus en détails l’impact des LLMs dans le milieu artistique, par exemple, on se trouve confronté à une inquiétude parfaitement fondée et connue, qui consiste à diluer le talent. En effet, en rendant accessible à tous la création artistique – et ce à un rythme effréné incompatible avec le processus de création artistique “traditionnel” – on risque un ensevelissement du marché de l’art sous un raz-de-marée de créations somme toutes moyennes. Bien que portant la marque de leur créateur par le biais des requêtes qui auront servi à les générer, ces œuvres risquent en effet de finir par présenter de grandes similitudes, puisqu’elles feront appel à des LLMs ayant appris sur les mêmes bases. On risque alors d’assister à un phénomène de “nivelage par le bas” ou de “moyennage” dont l’effet pervers, en plus d’impacter durablement l’intérêt pour les oeuvres générées et de supprimer la notion de “courant artistique”, sera de priver les “vrais” artistes (ceux ayant reçu une formation d’artiste) d’un accès au marché de l’art ainsi sursaturé, rendant impossible le fait de vivre des revenus de leur métier. 

Cette situation n’est pas sans rappeler l’arrivée sur le marché de la musique électronique. Celle-ci a eu – et a encore – les effets que nous venons de décrire. Un nouveau courant qui pourrait être perçu comme une contremesure serait dans ce cas l’émergence des télé crochets, dont l’objectif est précisément de remettre au premier plan le talent. Mais il est facile d’imaginer que face au potentiel des LLMs, ce genre de mesure ne serait probablement pas suffisante dans un marché à géométrie nécessairement contrainte. 

Nous finirons cependant sur une note positive en constatant que ces phénomènes n’empêchent pas, pour l’heure, l’émergence de nouveaux talents musicaux, qui semblent malgré tout trouver leur chemin jusqu’au succès. Ceci est sans doute lié au fait que comme dans les cas précédents, la création musicale est un processus qui s’appuie beaucoup sur la perception, et pas seulement sur le savoir-faire ou la technique. Et dans le cas artistique, ce processus possède en plus des vertues thérapeutiques démontrées, que ne procurent peut-être pas des créations issues de processus moins traditionnels.

Anticiper et accompagner les changements profonds

Cet article nous a permis de souligner l’impact de l’intelligence artificielle générative sur notre vie quotidienne et nos métiers, des plus scientifiques aux plus créatifs. Bien que l’actualité suggère une pause dans l’utilisation de l’IA, l’idée qu’il est impossible de s’opposer à cette évolution technologique fait partie intégrante de notre conscience collective. Afin de vivre au mieux ce virage vers une un monde hyper technologique et préparer au mieux les générations futures, il est indispensable de fournir les outils de compréhension technologiques, sociologique, économiques et éthiques. De fait, l’acquisition de ces savoirs passera nécessairement par l’éducation et la formation tout au long de la vie. 

Monique Canto-Sperber, philosophe et universitaire, résume cette nécessité d’anticiper et accompagner ces changements profonds dans son livre « Plaidoyer pour une véritable autonomie des établissements scolaires ». Elle y souligne que “l’éducation vise à rendre les enfants autonomes dans le monde social où ils vivront et travailleront. Pour maintenir cette intention, l’école doit se mettre à la hauteur des enjeux futurs en rendant intelligible les grandes révolutions techniques. Ainsi, il est primordial d’enseigner et de former les citoyens à l’IA pour leur fournir les outils nécessaires afin de comprendre et de mesurer l’impact potentiel de ces nouvelles technologies sur la vie humaine”.

Ces formations à l’IA grande échelle nécessitent d’établir un cadre légal préalable, comme évoqué dans notre précédent article (La Saga A(G)I”, épisode 2: éthique et responsabilité en matière d’IA). La France – et l’Europe en général –  s’est positionnée relativement rapidement dans la mise en place d’un cadre légal en matière d’IA, via la mise en place de mesures concrètes dès septembre 2017, lorsque le député Cédric Villani a été chargé de conduire une mission sur la mise en œuvre d’une stratégie française et européenne en matière d’IA. A noter que l’actualité en matière d’IA en France est surtout marquée depuis 2021 par l’IA Act. Ce système réglementaire basé sur le niveau de risque est actuellement examiné par plusieurs comités législatifs au Parlement européen et devrait être voté en séance plénière en avril. Il s’agit de la première étape vers une évolution de l’IA plus cadrée en France et en Europe.

Toutes ces mesures visant à encadrer l’IA propose également de s’inscrire dans une analyse socio-économique de la transformation des métiers. L’IA et les nouvelles technologies ont longtemps soulevé des questionnements sur l’avenir de nos métiers à long terme, mais les récentes avancées en IA générative nous obligent à considérer l’impact à plus court terme sur la structure socio-économique.Dans un billet de blog publié en 2021, Sam Altman, co-fondateur d’OpenAI, soulignait les conséquences des progrès de l’IA sur le marché du travail et l’organisation de la société en général. ll y évoque notamment un modèle de « revenu universel » à plus long terme, financé par une taxe de 2,5% sur la valeur boursière et la valeur des terres de grandes entreprises, appelé « American Equity Fund ».

L’impact de l’intelligence artificielle sur nos métiers est indéniable et étroitement lié à sa cadence de progression. Pour répondre à ces défis, il sera nécessaire de repenser nos mesures législatives, notre système d’éducation et de formation continue, ainsi que notre vision économique à long terme, notamment en termes de création de valeur et de capital. 

Où rencontrer la communauté de l’A(G)I ce mois-ci ?

CITRIS and the Banatao Institute – 4 distinguished lectures on the status and future of AI:

“How not to destroy the World with AI” – Stuart Russel – April 5, 12-1pm Apr 5, 2023 (UC Berkeley and livestream)

“Imitation and Innovation in AI: what four-year-olds can do and AI can’t (yet)” – Alison Gopnik – April 12, 12-1pm Apr 12, 2023 (UC Berkeley and livestream)

“How AI fails us, and how economics can help” – Michael I. Jordan – April 19, 12-1pm Apr 19, 2023 (UC Berkeley and livestream)

“Generative AI meets copyright” – Pamela Samuelson – April 26, 12-1pm Apr 26, 2023 (UC Berkeley and livestream)

World Summit AI Americas Apr 19, 2023 (Montreal, Canada)

Introducing the AI, Misinformation, and Policy Seminar Series | by NYU Center for Data Science | Mar, 2023 | Medium

 

Rédactrices : 

Valentine Asseman, attachée adjointe pour la science et la technologie au consulat de France de San Francisco, [email protected]
Emmanuelle Pauliac-Vaujour, attachée pour la science et la technologie au consulat de France de San Francisco, [email protected] 

Références bibliographiques : 

  1. GPT-5 could soon change the world in one incredible way (Mars 2023)
  2. The genie escapes: Stanford copies the ChatGPT AI for less than $600 (Mars 2023)
  3. ChatGPT Gets Its “Wolfram Superpowers”!— Stephen Wolfram Writings (Mars 2023)
  4. Mozilla launches Responsible AI Challenge (Mars 2023)
  5. Impromptu : Amplifying Our Humanity Through AI – Reid Hoffman (Mars 2023)
  6. Révolution industrielle/industrialisation, innovations, organisations
  7. “La Saga A(G)I”, épisode 2: éthique et responsabilité en matière d’IA (mars 2023)
  8. AI for the planet – BCG (2022)
  9. Ukraine war shows urgency of military AI, Palantir CEO says (février 2023)

 

Partager

Derniers articles dans la thématique
, ,