“La Saga A(G)I”, épisode 2: éthique et responsabilité en matière d’IA

En Juin 2022, Blake Lemoine, un employé de Google, a été mis en congé après avoir exprimé avec grande conviction que l’intelligence artificielle (IA) sur laquelle il travaillait avait la capacité d’avoir une âme. Cet événement illustre parfaitement à quel point les frontières entre l’homme et la machine se complexifient, pouvant engendrer de troublantes confusions chez chacun d’entre nous [1]. Si un ingénieur spécialisé en intelligence artificielle se trouve dans l’impossibilité de saisir les limites de l’homme et de la machine, quelle serait donc l’aptitude du reste de la société à appréhender ces mêmes limites ? A l’aube de la nouvelle vague des intelligences artificielles génératives (AGI) - dont de nombreux experts s’accordent à dire qu’elle s’apparentera à la révolution de l’internet ou des smartphones - cet article essaye d’apporter un éclairage sur la manière de former et informer le public sur cette technologie en anticipation de sa probable adoption à grande échelle, ainsi que sur les nouveaux enjeux en matière de responsabilité et de réglementation.

Aux limites de la machine, l’humain

IA et anthropomorphisme

Nous avons probablement tous déjà eu une interaction avec une intelligence artificielle (IA), au travers d’un assistant vocal ou un chatbot, en lui parlant ou en lui écrivant. Ce faisant, nous avons fait l’expérience de l’anthropomorphisme, un terme dérivé de ánthrōpos (« être humain ») et morphḗ (« forme »). Ce concept est apparu au XVIIIe siècle et décrit l’attribution de traits humains à des objets ou des animaux. Le terme «intelligence artificielle» est lui-même anthropomorphique, tant il porte à croire que ces technologies seraient «intelligentes ». 

A ce sujet, Luc Julia, co-créateur de l’assistant vocal Siri pour Apple, affirme dans Les Echos que malgré les dernières avancées technologiques en matière d’IA, l’intelligence est «réservée au vivant», et que «l’on ne peut pas parler d’intelligence pour ces systèmes telle qu’elle se définit pour nous» [2,3].

L’attribution de l’intelligence aux machines remonte en réalité à un séminaire sur les «machines pensantes», organisé en 1956 dans le New Hampshire par les mathématiciens John McCarthy, Marvin Minsky, Claude Shannon et Nathaniel Rochester. Ce séminaire a réellement marqué le début d’une discipline cherchant à « réaliser des machines capables d’apprendre – notamment de leurs erreurs – de comprendre leur environnement et le monde en général, de s’adapter aux changements, d’anticiper et de prévoir le futur, d’agir afin d’améliorer la condition humaine ». [4]

L’IA a en fait été nommée ainsi car il s’agit d’une technologie qui cherche à simuler l’intelligence humaine grâce à des machines et des systèmes informatiques.

Fondements et limites de ce nouveau rapport homme/machine

L’anthropomorphisme rend la distinction homme-machine de plus en plus complexe, et impacte notre perception des IA. 

La capacité de ChatGPT à autant ressembler à un humain dans ses réponses repose sur deux principes : 

  • ChatGPT a été entraîné à partir d’un très grand corpus de données textuelles, qui eux-mêmes comprennent de réelles conversations humaines, avec une grande variété de styles d’écritures, d’expressions et de structures linguistiques. 
  • La technologie NLP, pour Natural Language Processing, vise à assimiler les spécificités du langage humain et générer un langage qui en soit le plus proche possible, avec – comme ChatGPT l’a démontré à maintes reprises – des résultats tout à fait convaincants. 

Néanmoins, il arrive que ChatGPT donne des réponses qui ne soient pas satisfaisantes, voire fausses, ou qui puissent sembler absurdes. Bien que les réponses du chatbot soient conçues pour paraître relativement humaines, il arrive qu’elles ne correspondent pas à nos attentes, affectant ainsi notre perception de la machine. Ce phénomène a été étudié par Mori Masahiro en 1970, qui a observé que lorsque la ressemblance d’un robot est accrue, elle peut augmenter la sympathie de l’homme envers le robot. En revanche, un sentiment d’aversion peut être provoqué lorsque le robot donne une réponse qui est presque, mais pas tout à fait, humaine. Mori Masahiro a qualifié ce phénomène de “vallée de l’étrange” [5].

IA et inclusivité

Dans nos sociétés actuelles, ces questions d’identification sont particulièrement critiques et soulèvent la question de l’inclusivité. Force est de constater que pour nombre des chatbots sortis ces dernières années, la question de la discrimination ou de l’incitation à la haine est souvent celle qui a scellé – parfois en moins de 24 heures, comme cela a été le cas pour Tay de Microsoft en 2016 – leur réussite ou leur échec auprès du grand public.

Sur cette question de l’inclusivité, l’opacité constatée dans la compréhension de l’IA par le grand public a mené à de nombreux scandales, mettant en lumière à quel point les données sur lesquelles les modèles sont entraînés peuvent être biaisées. Ces biais se présentent essentiellement sous trois formes : sexistes, raciaux, ou fondés sur l’âge. Pour exemple :

  • En 2018, Amazon se rend compte que son algorithme de recrutement n’aime pas les femmes : Amazon avait construit depuis 2014 un programme informatique visant à recruter les meilleurs talents. En effet, les modèles informatiques d’Amazon avaient été formés pour évaluer les candidats en observant les tendances dans les CV soumis à l’entreprise sur une période de 10 ans. La plupart provenaient d’hommes, reflet de la domination masculine dans l’industrie technologique. Ce biais s’est donc naturellement inscrit dans l’algorithme de sélection.
  • En 2015, Google Photos a proposé une catégorisation intelligente des photos mais a rapidement constaté le classement des personnes noires dans la section “gorilles”, le modèle n’ayant pas pris en compte des données suffisamment représentatives des personnes de couleur. « Nous sommes épouvantés et sincèrement désolés » avait indiqué l’entreprise dans un communiqué après cet incident scandaleux [6].

De nombreux autres exemples pourraient être cités, et ChatGPT n’échappe pas à cet écueil, bien que cela n’ait pas mis en péril son adoption auprès du grand public – un constat qui demeure d’ailleurs à ce jour relativement énigmatique. 

La réponse d’un certain nombre de créateurs de ces IA a été d’adopter une méthode de contrôle des contenus s’appuyant sur l’apprentissage par renforcement fondée sur le retour humain (Reinforcement Learning based on Human Feedback, RLHF). Cette méthode permet, en particulier, de modifier une erreur ou un biais en s’appuyant sur le retour utilisateur – avec les dérives que l’on peut imaginer. D’autres ont préféré ancrer des interdictions dans la construction même de leurs modèles, selon un jeu de règles pré-défini. Ceci incite les IA à se soustraire à un plus grand nombre de requêtes, au nom du principe de précaution. 

Malgré ces mesures, les biais demeurent profondément ancrés dans les réponses de ces algorithmes, du fait d’une très longue antériorité dans les bases de données à partir desquelles ils apprennent. De ce fait, il est relativement aisé de contourner ces interdictions ou corrections, en formulant des requêtes “dans le style de” telle ou telle personnalité connue pour ses prises de positions éthiquement discutables [7]. S’appuyant sur l’information contenue dans les bases sur ces personnalités, le robot saura alors automatiquement faire l’hypothèse du caractère violent et hautement préjudiciable que devra adopter sa réponse envers l’ensemble de personnes visé, sans même que l’utilisateur ait eu à le spécifier. 

En théorie, il serait possible d’épurer les données initiales de tout biais : ce filtre devrait être réalisé par une armée d’experts humains, représentative de toutes les ethnies, sexes, et catégories d’âges. En pratique, cela paraît peu réaliste. D’autant que certains biais, tels que le racisme, peuvent prendre des formes qui sont difficiles à identifier et à isoler de la donnée d’entraînement, même pour un humain averti. Citons par exemple l’initiative d’OpenAI qui, en novembre 2021, a tenté une démarche d’identification de contenus violents en envoyant des dizaines de milliers de bribes de texte à une entreprise de sous-traitance au Kenya. Cette  démarche a été vivement critiquée : bien que les travailleurs aient la possibilité de consulter des “conseillers en bien-être”, ils ont néanmoins déclaré au Times qu’ils se sentaient mentalement marqués par ce travail, et ce pour un salaire net compris entre 1,32 et 2 dollars de l’heure [8]. Par conséquent, malgré le garde-fou qu’est censé représenter le retour utilisateur, le biais introduit par les données d’origine demeure un problème qu’il est difficile de résoudre complètement, en l’état actuel des connaissances.

Un autre facteur, en revanche, est à considérer. Car si les systèmes d’IA sont indéniablement tributaires des données qui les alimentent, ils le sont tout autant des compétences, des profils et des intentions des développeurs qui les conçoivent. Afin que ces systèmes soient représentatifs et inclusifs, il est essentiel de s’assurer de la diversité présente au sein des équipes de développement (âge, éthnie, sexe, origine sociale, éducation, etc.) [9]. Ceci s’accompagne du corollaire selon lequel l’accès à l’IA doit se faire de la manière la plus équitable possible. A la fois dans l’accès aux connaissances pour les générations de développeurs à venir, mais également dans son déploiement au sein des institutions et des entreprises – grandes et petites – et ceci sans distinction géographique. 

Il est clair que sur ces différents points, le chemin qui reste à parcourir est considérable et dépendant de très nombreux facteurs (économiques, sociétaux, politiques, environnementaux, idéologiques, etc.). Cependant, la mobilisation actuelle autour de l’IA est sans précédent dans le monde de la haute technologie : on constate que les créateurs d’IA recourent majoritairement à la science ouverte pour disséminer les récentes avancées, et préconisent largement la mise en place de pratiques communes. De quoi croire en une adoption vertueuse de ces outils dans un avenir proche ? 

En conclusion, le caractère anthropomorphique de ces IA est à double tranchant. Prêter des traits humains à ces technologies favorise notre acceptation et notre empathie vis-à-vis d’elles, mais peut également créer des réactions de frustration et de rejet lorsque leurs performances questionnent la fonction de l’Homme, ses interactions avec ses pairs, et son sentiment d’appartenance. Il devient dès lors primordial d’avoir à disposition (i) d’une part les outils nécessaires pour apprendre à dissocier ce qui provient de l’humain de ce qui a été créé par la machine, et (ii) d’autre part des règles communes pour apprendre à l’utiliser. La question se pose alors de savoir à qui revient la responsabilité de développer ces outils et d’établir ces règles, et comment s’assurer de leur adoption à grande échelle.

La responsabilité en matière d’IA

Régulation de l’IA : la responsabilité des auteurs

La possibilité de discerner une production générée par une machine ou issue du travail d’un être humain soulève des problématiques liées aux droits d’auteur et à la propriété intellectuelle. 

Ce sujet a réveillé de nombreux débats [10] peu de temps après la sortie de ChatGPT, après que le chatbot soit apparu comme co-auteur de publications scientifiques [11,12]. En effet, la question des droits d’auteur vis-à-vis des productions d’IA s’était déjà posée à l’été 2022, lors de la sortie de DALL.E2 d’OpenIA, une IA capable de générer du contenu graphique à partir de texte, en exploitant des bases d’images existantes, et sans se soumettre à une réglementation stricte vis-à-vis du droit d’auteurs des images originales [13]. 

En ce qui concerne ChatGPT, le phénomène a pris une ampleur qui échappe à tout contrôle. Très rapidement, on a assisté à la commercialisation de livres intégralement générés par ChatGPT, par exemple sur Amazon. A l’heure actuelle, la boutique Kindle d’Amazon compte plus de 200 livres électroniques citant ChatGPT en tant que co-auteur [14]. Dans le même temps, plusieurs universités dans des pays différents, parmi lesquels la France et les Etats-Unis, ont rapporté des cas de tricherie d’étudiants ayant eu recours à ChatGPT pour la rédaction de leurs devoirs [15,16]. Ces cas de triche ont même poussé l’université de New York à bannir ChatGPT, citant « des impacts négatifs sur l’apprentissage des élèves et des préoccupations concernant la sécurité et l’exactitude du contenu » [17].

Au-delà des mesures ponctuelles qui peuvent être prises pour préserver le droit d’auteur, ces faits d’actualité questionnent, d’une certaine manière, la considération que nous portons aux créations humaines par rapport à ce qui est produit par une machine. Le problème est qu’il est aujourd’hui pratiquement impossible de discerner un texte issu de ChatGPT de celui issu d’un cerveau humain. OpenAI a rapidement identifié cette problématique, et tenté de proposer des solutions pour la résoudre : ainsi, l’outil “AI Text Classifier” a été mis à disposition du grand public dès début 2023. Il s’agit d’une “IA capable de détecter si les textes sont écrits par des IA” [18]. Les créateurs de cet outil mettent bien entendu en garde contre son efficacité limitée : OpenAI indique sur son site que le classifieur n’identifie pour l’instant que 26% des textes générés par intelligence artificielle, et comporte certaines limites. Il est très peu fiable sur les textes de moins de 1000 caractères, et ses performances sont uniquement évaluables sur des textes rédigés en anglais[19]. Malgré cela, cette initiative a le mérite de montrer une voie à suivre en qualité d’information et de sensibilisation du grand public. OpenAI a, de manière générale, toujours joué la carte de la transparence envers son public et adapté la communication faite sur ses produits, sans pour autant endosser officiellement la responsabilité des mauvaises utilisations qu’il pourrait en être faites [20].

D’autres acteurs, comme les éditeurs, se positionnent en imposant leurs propres règles de publication. La rédactrice en chef du journal Nature a pris la parole à ce sujet fin janvier afin de s’opposer à ce que ChatGPT soit crédité en tant qu’auteur. « Lorsque nous pensons à la paternité d’articles scientifiques, d’articles de recherche, nous ne pensons pas seulement à les écrire. Il y a des responsabilités qui vont au-delà de la publication, et certainement pour le moment, ces outils d’IA ne sont pas capables d’assumer ces responsabilités. » [21]. Le journal Science a également banni ChatGPT de la liste de ses auteurs [22]. 

Face à la mise en place de ces solutions partielles et à ces prises de position personnelles, le besoin d’une réglementation concertée et globale se fait de plus en plus pressant. D’autant plus que ce besoin ne concerne pas uniquement la question de l’autorat, mais également celle de la propriété intellectuelle et de la manipulation de l’opinion publique, qui peuvent avoir des répercussions bien au-delà de la seule communauté scientifique .

Régulation de l’IA : la responsabilité des entreprises

Au vu des problématiques évoquées ici, on peut – sans trop s’avancer – souhaiter qu’une future régulation des technologies génératrices de contenu comporte une assignation explicite en termes de propriété intellectuelle. Celle-ci constitue en effet un élément critique dans le développement et la survie des entreprises, en particulier dans un milieu aussi compétitif que celui des technologies du numérique. Mais qu’en est-il aujourd’hui de cette régulation?

Si on se réfère aux conditions générales d’utilisation de ChatGPT, en vertu de l’article 3, l’utilisateur obtient tous les droits sur le contenu généré. Ces droits ont néanmoins deux limites : il est interdit de présenter le contenu comme s’il était généré par un humain, et celui ci ne peut être du contenu illégal, haineux, menaçant, harcelant, diffamatoire, vulgaire, obscène, violent, incitant à la violence, raciste, sexiste, discriminatoire, ou encore qui enfreint les droits d’auteur d’autrui. Il est également interdit d’utiliser le contenu généré si celui-ci porte atteinte à la vie privée ou contrevient à des réglementations ou des lois. 

D’après le code de la propriété intellectuelle française, un contenu est protégé par des droits d’auteur si ce même contenu est une œuvre originale reflétant une vue de l’esprit et comportant l’empreinte créative de son auteur. Ainsi, si on se réfère à la définition d’“esprit”, le contenu doit être obligatoirement créé par un humain pour être protégé par le droit d’auteur, ce qui n’est pas le cas d’un texte généré par ChatGPT. Néanmoins, ChatGPT pourrait également être vu comme une extension de l’auteur. En effet, les réponses nécessitent des requêtes de l’utilisateur, plus ou moins ciblées, pointues et créatives. Le contenu généré est ainsi inédit par le fait que l’utilisateur a orienté ChatGPT sur le type de données de sortie qu’il souhaitait obtenir [23].

La question n’est pas nouvelle : elle est comparable à la problématique de la propriété intellectuelle vue à l’aube de la photographie [24]. Alors que la loi du 19 janvier 1791 accordait un droit exclusif sur les œuvres aux “auteurs, écrivains, compositeurs, peintres, dessinateurs”,  la naissance de la photographie a fait naître de nombreuses contestations. Certains la voyant comme une reproduction mécanique de la réalité, d’autres comme une réelle approche artistique et créative. La reconnaissance de la photographie en tant que création digne de disposer de la propriété intellectuelle fût un processus complexe, long de plusieurs décennies, nécessitant la justification d’une exploration créative et d’une réflexion intellectuelle de la part des auteurs (i.e. les photographes). La réglementation concernant l’IA sera vraisemblablement tout aussi complexe et devra faire face à de multiples cas de jurisprudence.

En conclusion, si on place le premier niveau de régulation sous la responsabilité des auteurs et éditeurs de contenus, le second niveau serait celui de la responsabilité des entreprises (ou communautés) créatrices et utilisatrices d’IA. Nous mentionnions plus tôt la mise à disposition d’outils permettant d’identifier du contenu généré par des IA. La question de l’authentification de ces contenus, de la mise à disposition de leur historique, et de la transparence vis-à-vis de leur utilisation doit faire l’objet d’une réflexion collective et concertée, impliquant les pourvoyeurs de solutions d’IA ou à base d’IA. L’établissement de standards internationaux par des commissions de standardisation – comme il en existe déjà en matière de technologie – est probablement un élément fondateur, au même titre que le développement de nouveaux outils ou l’exploitation d’outils existants pour l’authentification d’informations numériques. Cependant l’adoption de ces solutions à grande échelle nécessite avant tout leur reconnaissance par les instances gouvernementales.

Réglementation de l’IA : la responsabilité des gouvernements

Nous avons donc établi : 

  • que les auteurs et éditeurs de contenus pouvaient être tenus pour responsables des potentielles conséquences néfastes des textes qu’ils publient, et
  • que les entreprises devraient sans doute avoir une grande part de responsabilité vis-à-vis de l’information aux utilisateurs sur l’origine et la fiabilité des produits à base d’IA et des contenus générés par ces produits. 

La législation concernant la responsabilité en matière d’IA étant pour l’instant imprécise, cela laisse une marge de manœuvre à l’utilisation malveillante d’outils de génération de contenu par IA. Une étude publiée en 2023 et menée par des scientifiques de l’Université de Stanford, de l’Université de Georgetown et d’OpenAI, ont mis en évidence l’impact que peut avoir l’AGI sur la diffusion de messages de propagande. Le Dr Josh A. Goldstein, co-auteur de l’étude, souligne que “pour les propagandistes, les outils de génération de langage seront probablement utiles : ils peuvent réduire les coûts de génération de contenu et réduire le nombre d’humains nécessaires pour créer le même volume de contenu » [25]. De plus, les messages de propagandes historiquement copiés/collés sur divers forums, et donc facilement identifiables, pourront prendre des styles divers et variés s’ils sont générés par une AGI, retardant de fait leur repérage.

Une manière de formuler ceci serait de dire que les machines ne peuvent être tenues responsables de leurs actions, mais peuvent néanmoins influencer les décisions humaines et manipuler l’opinion publique [26]. Cette capacité des algorithmes à influencer les choix humains soulève la nécessité de la mise en place d’un cadre juridique strict. On ne parle plus alors de régulation, mais de réglementation de l’IA. L’objectif serait non seulement de qualifier le niveau de dangerosité de ces technologies, mais aussi préciser les peines encourues en cas de préjudice, afin d’aboutir à une utilisation sûre et responsable de ces technologies. Ce genre de réglementation sous-entend également l’établissement d’instances en charge de cette évaluation, et donc d’une forme de surveillance de l’utilisation de l’IA. Jusqu’à présent, même dans les pays où les avancées de l’IA sont les plus importantes, à savoir en premier lieu les Etats-Unis, les législateurs n’ont pas pris de mesures concrètes à l’échelle nationale. Cette absence de régulation malgré le développement frénétique de l’IA met en évidence le manque d’agilité institutionnelle et de connaissances techniques des instances législatives.

A l’échelle européenne, une proposition initiale de règlement européen sur l’intelligence artificielle a été présentée le 21 avril 2021 par la Commission européenne. Celle-ci vise, dans une “logique de sécurisation préventive contre les risques pour la santé, la sécurité et les droits fondamentaux, inhérents aux systèmes d’intelligence artificielle, de consacrer et de réglementer trois niveaux de risques : les risques inacceptables, les hauts risques, les risques acceptables” [27]. Cette législation sur l’IA, vivement attendue, fait actuellement l’objet de négociations dans les deux chambres législatives de l’UE : au Conseil de l’UE, chambre des Etats, les 27 Etats membres se sont entendus et ont adopté une « orientation générale » sur un projet de texte en décembre 2022 ; au Parlement européen en revanche, les députés européens n’ont pour l’heure pas encore réussi à trouver un consensus sur les principes de base de la législation [28], ce qui permettrait ensuite d’avancer vers une négociation entre Conseil de l’UE et Parlement européen sur un texte consolidé. Thierry Breton, Commissaire européen au Marché intérieur, a déclaré que “les risques posés par ChatGPT mettent en évidence le besoin urgent de règles en matière d’intelligence artificielle dans le but d’établir une norme mondiale”. Selon le projet de règlement de l’Union Européenne, ChatGPT pourrait être considéré comme un système d’intelligence artificielle classé “à haut risque”. La transparence est annoncée comme la priorité absolue, comme l’a souligné Thierry Breton, déclarant : « Les gens devraient être informés qu’ils ont affaire à un chatbot et non à un être humain. La transparence est également importante au regard du risque de partialité et de fausses informations » [29].

Il convient de souligner que la mise en place de telles lois aura un impact considérable sur l’industrie de l’IA, notamment en raison de l’augmentation des exigences de conformité, entraînant une hausse des coûts. L’IA étant une technologie qui s’appuie sur le caractère participatif pour se développer, on peut imaginer la résistance que pourraient rencontrer l’établissement de telles régulations. Il ne faut pas oublier cependant que l’industrie des hautes technologies est parfaitement rodée à la mise en place de standards internationaux, comme c’est par exemple le cas pour les technologies de communication (4G, 5G…). Il est donc vraisemblable qu’une telle démarche puisse s’appliquer dans le cas de l’IA, avec cependant un degré d’agilité et une rapidité qui vont mettre à l’épreuve l’inertie intrinsèque des états et de la commission européenne. 

Lutter dès à présent contre les dérives de l’IA

Les dérives liées à l’utilisation de l’IA ne sont pas une fatalité. La communauté scientifique l’a bien compris et communique depuis 3 mois de manière extrêmement intensive sur ce sujet, à grand renfort d’articles relayés massivement sur les réseaux sociaux. C’est là une différence majeure avec les grandes vagues technologiques précédentes de l’internet et du smartphone : aujourd’hui le public a accès à l’information et peut être sensibilisé de manière relativement efficace, en anticipation des réglementations à venir. 

Cette démarche n’est pas sans rappeler celle des acteurs de la transition écologique. Dans la lutte environnementale, l’opinion publique a été un déclencheur sans précédent dans la mise en place d’actions de la part des gouvernements et des grandes organisations mondiales. Vraisemblablement, ce schéma sera également celui de la prochaine transition numérique. Malgré des voies dissonantes lorsqu’il s’agit de discuter des choix technologiques ou des stratégies de diffusion, on observe globalement une convergence des avis lorsqu’il s’agit de définir l’utilisation qui serait la plus adaptée de l’AGI dans nos métiers et nos vies quotidiennes, par exemple l’aide à la rédaction et à la réflexion. L’argument de cette communauté qui cherche à défendre l’adoption de l’IA à l’échelle globale repose sur le fait que, bien utilisée, celle-ci bénéficierait à l’intérêt général bien plus qu’elle ne risquerait d’entraîner de dérives ayant des conséquences graves.

Le concept d’IA explicable (Explainable AI)

Nous parlions précédemment de nouveaux outils numériques permettant la surveillance des contenus produits par l’IA. De la même manière, proposer un déploiement soutenable de l’IA nécessitera, en plus de solutions réglementaires, des innovations techniques telles que l’explainablity, ou explicabilité en français. L’explicabilité en matière de machine learning, est un domaine qui s’attache à offrir une justification aussi précise que possible quant à la manière dont modèle a abouti à un résultat spécifique [30]. Le fait de pouvoir expliquer les données de sortie représente un prérequis à leur utilisation, notamment commerciale. Imaginez par exemple qu’un système de reconnaissance faciale soit utilisé afin d’identifier des suspects d’un crime, sans être en mesure d’expliquer comment le système a pris la décision. Un tel résultat, indépendamment de son efficacité, serait condamné à être jugé irrecevable aux yeux de la loi, et la technologie inapte à l’adoption.

Dans le cas de ChatGPT, qui génère un contenu textuel en langage naturel, l’explicabilité a pour vocation de fournir des arguments convaincants et, si possible, irréfutables quant aux raisons pour lesquelles le modèle a produit de telles réponses. Pour l’instant, lorsque ChatGPT génère des réponses inexactes, il n’y a aucun moyen pour l’utilisateur de retracer et identifier la source de cette inexactitude.

La compréhension par les utilisateurs des mécanismes utilisés en IA a longtemps été négligée, étant jugée non critique. En effet, la plupart des déploiements réalisés se sont concentrés sur l’intelligibilité pour les ingénieurs, afin que ceux-ci soient en mesure de débugger des systèmes d’étude complexes. La confrontation du grand public à l’IA par le biais de ChatGPT a certainement contribué à bousculer l’ordre de ces priorités. Il semble de plus en plus inévitable que les systèmes d’IA ne soient pas considérés comme fiables et utilisables tant que leurs créateurs n’adopteront pas une dynamique centrée sur l’utilisateur. En vue d’adopter cette dynamique, des experts de l’IA ont, par exemple, proposé les recommandations suivantes [31] : 

  • Articuler le plus souvent possible les explications selon des liens de causes à effet, afin de comprendre les relations entre entrées et sorties d’informations 
  • Prendre en compte l’environnement social de l’utilisateur, et adapter les explications à son niveau d’expertise
  • Réaliser une sélection des informations, afin de transmettre les explications nécessaires et suffisantes pour la bonne compréhension de l’utilisateur
  • Trouver un compromis entre transparence et confidentialité lors de la génération des explications

Par ailleurs, nous bénéficions déjà d’un certain recul dans ce domaine d’étude. En 2019, IBM proposait déjà “Explainability 360”, une boîte à outils logicielle accessible  en open source, permettant de comprendre de quelle manière les modèles d’apprentissage automatique produisent leurs prédictions [32].

Malgré cela, des exemples existent qui démontrent que ces principes généraux de l’explicabilité ne sont pas toujours suffisants, au regard du degré de maîtrise que nous avons aujourd’hui de cette science. ChatGPT par exemple est capable d’établir un raisonnement mathématique tout à fait convaincant, mais en optant pour de mauvaises hypothèses, menant ainsi à un résultat erroné. Il est alors de la responsabilité de l’utilisateur d’éprouver la solidité du résultat obtenu ou des hypothèses utilisées, ce qui requiert un degré d’expertise élevé et est contraire à l’esprit d’une IA inclusive. 

Le domaine de l’explicabilité représente donc vraisemblablement un sujet important pour les mois et les années à venir. Dans des secteurs sensibles tels que la santé, la finance ou la sécurité, les données de sorties doivent être reproductibles et tenues à jour en vue d’en garantir leur fiabilité et leur durabilité.

L’importance de développer l’esprit d’analyse

Le concept même d’explicabilité s’inscrit autant dans une démarche tournée vers des publics moins avertis que celui des chercheurs et ingénieurs. Le grand public sera ainsi de plus en plus souvent confronté à du contenu issu de l’IA. Il est naturellement du devoir de la communauté scientifique d’adopter un rôle de sensibilisation, d’éducation et de démocratisation de ces technologies. Selon Laure Soulier, chercheuse au CNRS et professeure à la Sorbonne sur des sujets de deep learning,  « même si ce ne sont pas des outils qui visent à remplacer l’utilisateur, mais à l’aider à gagner en efficacité, il est important que les gens développent un esprit critique vis-à-vis d’eux et des biais qu’ils comportent ». 

Il est intéressant de voir que certains pays ont dores et déjà pris de l’avance dans l’éducation de la population à ces sujets. En Chine par exemple, on observe une politique d’éducation aux nouvelles technologies dès le plus jeune âge. Un rapport de l’agence d’information Xinhua paru en novembre 2018 indiquait qu’une série de manuels scolaires sur l’IA, publiés par la East China Normal University Press, avait été distribuée à des centaines d’écoles à travers le pays. 

En France, le gouvernement a lancé une stratégie nationale pour l’intelligence artificielle en 2018, dont fait partie la “stratégie de l’IA en éducation”, qui propose de “construire des connaissances et des compétences de base chez tous les élèves, les enseignants et les cadres pour démystifier, comprendre et utiliser de manière raisonnée et éthique les potentialités de l’IA, et susciter des talents en proposant des mentions, spécialités ou parcours en IA aux lycéens en amont de l’enseignement supérieur”. 

De manière plus anecdotique, au sein de la Silicon Valley, où ces technologies ont initialement émergé et bénéficient d’un indice de confiance inégalé de la part des populations – majoritairement technophiles – les écoles publiques, de la maternelle au lycée, n’ont pas attendu la prochaine rentrée scolaire pour intégrer à leurs programmes et à leurs catalogues d’activités et séminaires extrascolaires, des propositions autour de la technologie et des usages de l’AGI.

Enfin, Microsoft, conscient de la nécessité d’éduquer à l’IA, a publié en 2018 un livre blanc intitulé “Intelligence artificielle : guide de survie, comprendre, raisonner et interagir autrement avec l’IA”. L’intention est louable et répond à un besoin indéniable, celui de vulgariser les avancées technologiques pour “les rendre compréhensibles et appréhensibles, pour tous et par tous” [33].

Ces idées rejoignent les postulats du philosophe et théoricien Français Simondon, dans sa publication “Du mode d’existence des objets techniques” de 1958, où il développe sa théorie visant à situer la technologie en tant que système de relations plutôt qu’en tant qu’objet isolé. Sa pensée met en lumière la question de l’aliénation, et le fait que la technologie change les conditions dans lesquelles nous prenons des décisions. Selon Simondon, l’aliénation serait issue du manque de compréhension de la technologie de la part des Hommes. Des écrits qui trouvent une résonance toute particulière dans l’actualité qui est la nôtre, invitant à mieux comprendre la technologie avant de la juger [34].

Être capable de porter un regard critique sur l’intelligence artificielle nécessite donc de comprendre les algorithmes et les principaux éléments de langage employés. Et nous espérons que cette série d’articles et les références qui y figurent sauront y contribuer, modestement. 

En conclusion…

Exactement 3 mois après le lancement de ChatGPT, de plus en plus de voix s’accordent à reconnaître que l’utilisation raisonnée de l’intelligence artificielle engendrera des progrès significatifs dans des secteurs très variés tels que la santé, l’environnement, l’agriculture, ou encore la finance. Cependant, l’exploitation de ces technologies peut avoir des impacts préjudiciables en cas de mauvaise gestion, et entrainerait des déviances renforçants les prejugés, la discrimination et les manipulations de l’opinion publique. Ce risque est d’autant plus grand que le déploiement des IA génératives s’accompagne de deux facteurs aggravants que sont (i) la rapidité inédite des développements technologiques et (ii) l’adoption extrêmement rapide de ces technologies par un grand public encore mal averti. En effet, de nouveaux chatbots ayant des fonctionnalités proches de celles de ChatGPT paraissent chaque semaine, sans que soient définies des règles communes de fonctionnement, de dissémination et d’utilisation. 

Face à cette frénésie, il en va de la responsabilité de tous les acteurs de l’IA de garantir une adoption sereine de ces technologies. Et en termes de responsabilité, l’échelle de temps est un facteur primordial à considérer : 

  • Dans l’immédiat, il est du devoir des experts de l’AGI d’informer le mieux possible et le plus largement possible sur la manière d’utiliser ces outils, et sur les critères techniques qui différencient un chatbot d’un autre chatbot (comme par exemple la nature statique ou dynamique de la base d’apprentissage).
  • Dans les mois à venir, les entreprises devront prendre en compte dans leurs orientations stratégiques la nécessité de se doter et de doter le grand public d’outils permettant d’évaluer la fiabilité et l’impact global des AGI. Dans le même temps, les métiers de l’éducation auront vraisemblablement fort à faire pour sensibiliser l’ensemble des populations sur les bons et mauvais usages de l’IA.
  • Enfin à plus long terme, il sera du devoir des instances et gouvernements d’établir une réglementation qui tienne compte des intérêts de l’ensemble de ces acteurs et qui accompagne les entreprises vers une dissémination sereine de cette technologie extrêmement puissante. Leur mission sera de promouvoir, par le biais d’un travail collaboratif entre gouvernements, entreprises, experts et citoyens, la mise en place de mesures de transparence, d’inclusion, de protection des données personnelles et la garantie d’une IA responsable, afin de conduire, dans l’intérêt général, la révolution de l’IA de la manière la plus viable et durable possible.  

“L’une des raisons pour lesquelles l’intelligence artificielle est une innovation si importante est que l’intelligence est le principal moteur de l’innovation elle-même. Ce changement technologique rapide pourrait s’accélérer encore plus s’il n’est pas seulement motivé par l’intelligence humaine, mais aussi par l’intelligence artificielle. Si cela se produit, le changement qui s’étend actuellement sur des décennies pourrait se produire dans des laps de temps très brefs d’un an seulement. Peut-être même plus rapidement.” [35]

Dans les prochains épisodes de “La Saga A(G)I”…

L’adoption de l’A(G)I dans les différents secteurs d’activité (éducation, industrie, tech grand public, médecine, climat, défense) : comment l’A(G)I transforme nos métiers ?

Où rencontrer la communauté de l’A(G)I ce mois-ci ?

Atlanta Generative AI MeetupMar 9, 2023 (online)

The European Chatbot & Conversational AI Summit Mar 15, 2023 (Edinburgh, UK & online)

Game Developers Conference (GDC)Mar 20, 2023 (San Francisco, USA)

AI Developer Conference | GTC 2023 | NVIDIA Mar 20, 2023 (online)

AAAI 2023 Spring Symposium Series – AAAI  Mar 27, 2023 (San Francisco, USA)

World Summit AI Americas Apr 19, 2023 (Montreal, Canada)

Rédactrices : 

Valentine Asseman, attachée adjointe pour la science et la technologie au consulat de France de San Francisco, [email protected] 

Emmanuelle Pauliac-Vaujour, attachée pour la science et la technologie au consulat de France de San Francisco, [email protected]

Références bibliographiques : 

[1]Non, l’intelligence artificielle de Google n’est pas consciente, comme l’affirme un ingénieur de l’entreprise (15 juin 2022)

[2]Pourquoi l’intelligence artificielle n’est pas intelligente (1er février 2019)

[3]L’intelligence artificielle est-elle vraiment intelligente ? (4 février 2023)

[4] L’intelligence de l’intelligence artificielle (10 janvier 2020)

[5] La vallée de l’étrange (2012)

[6] Les ratés de l’IA : racisme, misogynie et fascisme

[7] ChatGPT proves that AI still has a racism problem (9 décembre 2022)

[8] Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic (18 janvier 2023)

[9]Gregory Renard – Let’s take some time and talk about the Importance of Inclusion in the AI Revolution. (janvier 2023)

[10]ChatGPT peut-il être votre co-auteur ?(9 février 2023)

[11]Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models(21 décembre 2022)

[12] Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?(janvier 2023)

[13]Dall-E 2 permet de générer des images à partir de quelques mots, mais le produit est-il votre ?(19 août 2022)

[14]Des livres écrits par ChatGPT inondent la boutique d’Amazon (22 février 2023)

[15] Lyon : La moitié des élèves d’un master surpris en train de tricher grâce à l’intelligence artificielle (11 janvier 2023)

[16] Scores of Stanford students used ChatGPT on final exams, survey suggests (22 janvier 2023)

[17] NYC Bans Students and Teachers from Using ChatGPT (vice.com) (4 janvier 2023)

[18] AI Text Classifier – OpenAI’s release explained (2 février 2023)

[19]Open AI – New AI classifier for indicating AI-written text (31 janvier 2023)

[20] The Creator of ChatGPT Thinks AI Should Be Regulated (5 février 2023)

[21]Can ChatGPT be credited as an author? (26 janvier 2023)

[22]Science journals ban listing of ChatGPT as co-author on papers | Peer review and scientific publishing | The Guardian (26 janvier 2023)

[23] La propriété des contenus ChatGPT : enjeux et implications (16 janvier 2023)

[24] Evolution du droit à l’image (2008)

[25] Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations (janvier 2023)

[26] Livre – Les algorithmes font-ils la loi ? Aurélie Jean (2021)

[27]L’IA Act déjà obsolète face aux IA de nouvelle génération ? L’exemple de ChatGPT(1e février 2023)

[28]La loi européenne sur l’intelligence artificielle est retardée, les législateurs n’ayant pas réussi à se mettre d’accord sur un ensemble de propositions de base

(17 février 2023)

[29]UE: La législation sur l’IA devra répondre aux craintes sur ChatGPT, déclare Breton (3 février 2023)

[30]Explicabilité des modèles : ne croyez pas aveuglement ce que l’IA vous dit ! (mars 2020)

[31] A historical perspective of explainable Artificial Intelligence(19 octobre 2020)

[32] Introducing AI Explainability 360 (8 aout 2019)

[33] Intelligence artificielle : guide de survie Comprendre, raisonner et interagir autrement avec l’IA

(2018)

[34]Simondon et la philosophie de la « culture technique » (1993)

[35] Technology over the long run: zoom out to see how dramatically the world can change within a lifetime (22 février 2023)

Partager

Derniers articles dans la thématique