Rendre l' IA accessible à tous

Catégorie : Gouvernance

Posts relatifs aux aspects de gouvernance de l’IA

La stratégie de l’ aspiration, une piste pour l’ IA en Europe

Je voudrais développer dans cet article une approche de stratégie IA potentiellement gagnante pour l’ Europe, ouvrant la voie vers une croissance économique dont nous avons bien besoin : des niveaux d’ endettement élevés, des États-providence non viables et une population en âge de travailler qui diminuera de 2 millions par an à partir de 2040 créent d’ énormes pressions budgétaires.

L’ IA pourrait inverser le malaise de l’Europe en matière de productivité et restaurer son dynamisme économique. Pour cela, je vais aborder successivement les questions suivantes : quelle est la bonne stratégie que l’ Europe doit adopter pour capturer le plus de valeur possible de l’ Intelligence Artificielle ? Quelles actions entreprendre pour se mettre sur la bonne voie ? Quels sont les faiblesses qui peuvent mettre l’ approche en péril ?

1. La stratégie de l’ aspiration

La stratégie de l’ aspiration fait référence à l’ effet dont bénéficient les pilotes de Formule 1 qui en suivent d’ autres; cette idée est également appelée en anglais The smart second-mover strategy par le Prof. Luis Garicano de la London School of Economy, qui a écrit plusieurs articles très intéressants sur le sujet. Je partage tout à fait son analyse et cite ses articles en référence.

L’ Europe se retrouve actuellement à la traîne dans la course aux modèles génératifs. Les Etats-Unis et la Chine dépensent actuellement des dizaines voire des centaines de milliards de dollars pour développer et exploiter les meilleurs modèles génératifs et se positionner en tête de la course.

Devons-nous chercher à courir dans ce peloton de tête, sachant qu’il ne sera pas facile de rattraper notre retard, tant au niveau des investissements que de nos faiblesses structurelles : manque de géants européens de la tech aux poches bien garnies, coût de l’ énergie bien supérieurs à ceux des Etats-Unis, contraintes administratives ralentissant la construction de nouveaux datacenters, cadre socio-économique décourageant la prise de risque ?

Par ailleurs, il n’ est pas du tout établi que l’ essentiel de la valeur financière se trouve dans la création de nouveaux modèles toujours plus performants. La disponibilité de modèles open-source puissants sur le marché montre bien que les barrières à l’ entrée sont faibles. La chute brutale des bourses américaines lors de la publication du modèle open-source Deepseek-R1 développé avec des moyens relativement modestes montre bien la fragilité de ce modèle économique. Le coût rapidement décroissant de l’ inférence à la demande par token est un autre indicateur du risque de banalisation des services d’IA générative, progressivement réduits à une simple commodité.

Figure 1 : Evolution de coût de l’ inférence par token (crédit : OpenAI)

Une autre possibilité est d’ investir dans la couche matérielle, à savoir les technologies permettant de créer les circuits intégrés nécessaires à l’ exécution des modèles. On pense ici bien sûr à NVIDIA, principal fournisseur des processeurs, mais aussi à la fonderie Taiwanaise TSMC et au Néerlandais ASML qui est le leader sur le marché des machines de lithographie nécessaires à la gravure des puces haut de gamme. Je voudrais en profiter pour mentionner que le BeneLux n’ est pas mal placé dans la course, avec à la fois ASML à Eindhoven et l’ IMEC à Louvain qui est un des principaux centres de recherche mondiaux dans la miniaturisation et circuits électroniques et des nanotechnologies.

Figure 2 : La machine de lithographie EUV Twinscan EXE:5000 d’ ASML (crédit : ASML)

L’ Europe est en situation avantageuse dans la partie « amont » de la couche matérielle. Par contre, sa position est nettement moins favorable sur la partie « aval », à savoir la production de masse des processeurs avancés, qui se fait principalement en Asie, notamment par le leader mondial TSMC.

Mais il existe une troisième piste: mettre l’ accent sur l’ intégration de l’ IA dans les produits, applications et processus opérationnels des entreprises européennes. L’ idée est de devenir le meilleur et le premier des utilisateurs de l’ IA.

Et là, l’ Europe possède pas mal d’ atouts : un grand marché partiellement unifié de 450 millions d’ utilisateurs, un capital humain de premier plan, et de nombreux grands acteurs dans des secteurs industriels susceptibles de bénéficier fortement de l’ IA : industries aérospatiales et automobiles, production mécanique, industrie chimique et pharmaceutique, sans parler d’ un important tissu de PME techniques spécialisées dans les mêmes domaines.

Par ailleurs, ces secteurs sont souvent de grands producteurs de données spécialisées de qualité, qu’ elles proviennent des produits et services, des chaînes de production ou des systèmes de gestion des entreprises. Ces données, une fois consolidées par secteur, peuvent servir de base à des modèles IA spécialisés, qui peuvent être utilisés pour de la prédiction de qualité soutenus par des applications d’ IA générative lorsqu’ une capacité de raisonnement plus généraliste s’ avère nécessaire.

L’ idée est donc de profiter de ce que les autres fournissent pour banaliser leurs services, et en profiter pour créer une couche applicative profondément intégrée dans nos produits et activités. Ceci présente deux avantages : premièrement ces intégrations sont complexes et difficiles à banaliser. La propriété intellectuelle créée ne sera pas aisément recopiable et délocalisable. Et deuxièmement, cela offre d’ importantes possibilités de gains de productivité et de réduction des coûts à travers l’ automatisation d’ un certain nombre de tâches actuellement réalisées par des humains.

2. Comment nous mettre sur la bonne voie

La liste des actions possibles est longue, mais on peut définir trois grands axes:

Premièrement, mettre en place des standards ouverts pour l’ IA générative.

Il s’ agit ici de rendre les modèles IA généralistes (ChatGPT et autres) interchangeables et de les marchandiser en les régulant. Une direction logique serait de standardiser l’ accès aux modèles par API; on peut également plafonner le prix chargé par token ou encore interdire les clauses contractuelles d’ exclusivité et limiter les délais de préavis de résiliation de service. Il faudrait aussi s’ assurer que données échangées avec ces fournisseurs de service sont portables et récupérables par les clients, par exemple l’ historique des dialogues ou les données d’ entraînement utilisées pour un affinage de modèle.

Deuxièmement, aménager l’ EU AI Act pour le rendre plus pro-innovation.

Je pense que l’ AI Act dans son principe est une bonne chose car il offre un cadre légal prévisible aux développeurs d’ applications. Cependant, son formalisme reste très abstrait et généraliste et donc difficilement utilisable en l’ état, alors que les dates d’ entrée en vigueur approchent rapidement (août 2026 pour la plupart des applications). Ces dates devraient être retardées pour donner le temps aux autorités de définir des règles concrètes applicables à chaque secteur d’ activité. Le flou actuel est d’ autant plus gênant que l’ Act repose largement sur des mécanismes d’ auto-évaluation par les implémenteurs ce qui les met dans une situation pour le moins inconfortable…

Figure 3 : Planning de mise en application de l’ EU AI Act (crédit : BakerMcKenzie)

Par ailleurs, la réglementation exige la création d’ un important paquet de documentation dès le déploiement initial de l’ application IA, ce qui pose des difficultés particulières pour les petites entreprises. Une approche de mise en conformité plus itérative et progressive serait souhaitable. Ces soucis avec l’ EU AI Act sont à la base de nombreuses réactions du monde patronal qui demande une mise en pause temporaire, comme cette lettre de 46 CEOs de multinationales européennes qui demande un report des échéances de deux ans (référence ici).

Troisièmement, constituer un écosystème européen des données

C’ est un vaste sujet qui mériterait au moins un article entier à lui tout seul. L’ Union Européenne a défini une stratégie pour constituer des ensembles sectoriels de données. Un premier pas a été franchi en mars 2025 avec l’ European Health Data Space Regulation (EHDS) qui définit les mécanismes et infrastructures pour consolider les données de santé de manière harmonisée au niveau européen, afin de pouvoir entraîner les modèles IA du futur. Une réglementation analogue est actuellement en cours de discussion pour le secteur financier. Lorsqu’ elle sera finalisée, la stratégie européenne des données devrait couvrir quatorze domaines ayant chacun leur espace de données consolidé.

Figure 4 : Illustration de l’ European Health Data Space Regulation (EHDS)

Outre ces trois axes spécifiques à l’ IA, toute mesure générale favorisant l’ innovation est évidemment la bienvenue. Que cela concerne l’ accès aux capital-risque ou la mise en place d’ un type de société pan-européen -le fameux « 28ème régime »-, des initiatives inspirées par le rapport Draghi sur la compétitivité sont en cours de réalisation et doivent être encouragées.

Sur le plus long terme, rien n’ est possible sans une éducation de qualité. Je suis convaincu que l’ éducation est un des domaines ou l’ IA peut apporter le plus de progrès. La relative fragmentation de l’ Europe en 27 systèmes éducatifs distincts peut s’ avérer être ici une force cachée : cela permet de lancer différents types d’ initiatives par pays et de déployer ensuite les meilleures pratiques dans les autres pays.

3. Nos risques et nos faiblesses

Un de nos problème est que de nombreux emplois en Europe se retrouvent dans des secteurs difficiles à automatiser, comme les soins liés au vieillissemnt de la population, le tourisme ou encore les administrations. En l’ absence d’ une révolution en robotique, les soins de santé aux personnes âgées et le tourisme requièrent une interaction humaine et se prêtent mal à l’ automatisation. Dans le cas de l’ administration publique également, de nombreux emplois ne sont pas automatisables facilement : policiers, pompiers, soldats, enseignants sont non seulement difficilement remplaçables mais disposent en général d’ un status privilégié et d’ une puissante représentation syndicale.

Ce qui mène au second point, la résistance au changement. Contrairement à d’ autres régions du monde, l’ Europe possède des règles de protection de l’ emploi extrêmement fortes qui peuvent décourager la prise de risque. Ces règles réduisent considérablement la mobilité des travailleurs et rendent la réallocation des ressources entre entreprises très coûteuses. En outre, les travailleurs de certains secteurs disposent de moyens de pression supplémentaires par leur capacité à paralyser un pays avec un nombre relativement limité de grévistes (transports, agriculteurs…).

Ces résistances au changement sont également de nature réglementaire, avec un « principe de précaution » qui peut s’ avérer contre-productif. Le cas de la législation européenne sur les OGM est emblématique : la culture de nourriture OGM pour la consommation humaine est extrêmement limitée en Europe (en pratique seul maïs OGM est cultivé) alors que, de l’ aveu même des autorités sanitaires de l’ UE, ces derniers ne sont pas plus dangereux que les aliments obtenus par des voies traditionnelles. Ceci est d’ autant plus incompréhensible que l’ Union Européenne importe des quantités importantes de nourriture OGM depuis l’ extérieur de ses frontières (par exemple: germes de soja, huile de colza…) pour la consommation humaine !

Un autre frein à l’ automatisation qui relève indirectement du principe de précaution est plus insidieux : l’ exigence réglementaire d’ avoir un humain dans la boucle dans de nombreux processus critiques. Ceci peut sembler une bonne idée au premier abord, mais aura pour conséquence que la rapidité d’ exécution du processus sera conditionée par la rapidité de l’ humain le plus lent dans le processus, en espérant qu’ il ne soit pas malade ou en vacances…

Cette idée de surveillance humaine est noble dans le principe mais peut s’ avérer contre-productive dans certains cas. Le trading d’ actions à haute fréquence en est un exemple, où l’ exigence de supervision humaine sur chaque ordre boursier rend cette stratégie financière inutilisable en pratique. Un exemple encore plus frappant est le tri des patients aux urgences en cas de suspicion d’ AVC où chaque minute compte. Une IA peut analyser le résultat d’ un scanner lors de l’ arrivée à l’ hôpital et donner un pré-diagnostic en quelques secondes ce qui permet l’ envoi immédiat dans la bonne unité de soins. Attendre qu’ un radiologue donne son diagostic ajoute 30 à 60 minutes (voire plus en période de nuit ou de weekend) et ce délai peut s’ avérer fatal…

Le danger est que l’ ensemble de ces contraintes réduisent très fortement le champ d’ action de l’ automatisation par l’ IA en Europe par rapport à d’ autres régions du monde qui n’ auraient pas les moindres scrupules…Pour ma part je pense que cela vaut la peine de prendre certains risques, quitte à réglementer ex post en cas de problèmes.

4. Conclusion

Sur le fond, je pense que les gains de productivité grâce à l’ IA auront lieu, mais qu’ ils seront plus lents que prévu. Tout comme à l’ époque du boom internet en 1998-2001, un nombre incroyable d’ idées ont jailli en très peu de temps, mais beaucoup d’ entre elles se sont avérées irréalistes vu l’ état des techniques à l’ époque. Leur heure n’ était pas encore venue, mais toutes ces idées ont servi de terreau pour les progrès des vingt années qui ont suivi et la plupart d’ entre elles ont fini par prendre forme.

Je pense que la situation est analogue dans le case de l’ IA. Lorsque j’ entends les PDG des géants de la tech parler d’ une transformation en profondeur de la société vers 2030, je pense qu’ ils ont raison sur le fond mais pas sur le calendrier. Je pense que tout cela sera plus lent et plus progressif. Pour ma part je ne serais pas surpris que la transition dure entre 15 et 20 ans vu l’ énormité de la tâche et les résistances à attendre.

Difficile aussi de quantifier les gains de productivité. Si les économistes les plus prudents estiment l’ impact à environ 2% de croissance du PIB sur dix ans, d’ autres vont jusqu’ à imaginer une croissance de 30% par an ! Les deux dernières références de la liste ci-dessous présentent de telles analyses. Tout dépend de la proportion des tâches effectivement automatisées…

Sources et références

Dans le cerveau des modèles de langage, première partie : les idées

Un fait surprenant concernant les modèles de langage est que personne ne comprend vraiment comment ils fonctionnent en interne. Ne pas être en mesure de reconstruire de manière déductive les étapes « mentales » à travers lesquelles passe le modèle pour échafauder sa réponse pose des problèmes de sécurité et d’ éthique.

En effet, comment s’ assurer qu’ un modèle répond de manière transparente et ne nous ment pas ou ne poursuit pas un objectif différent de celui que nous lui avons assigné ? Et si nous lui demandons d’ expliciter une décision, va-t’ il expliquer les étapes de son raisonnement ou fournir une justification a posteriori sans relation avec son processus interne initial ? Un modèle pourrait-il nous mentir délibérément si nous le mettons dans une position contradictoire en lui demandant d’ aller à l’ encontre de ses instructions ? Jusqu’ où peut-on être sûr que certaines prohibitions seront respectées ?

Ces questions revêtent une importance de plus en plus grande au fil des progrès des modèles : les modèles se transforment progressivement en agents avec une capacité directe d’ action dans le monde réel : envoi d’ emails, achat de produits…cette délégation sans cesse croissante crée une certaine urgence autour de ces questions de sécurité et d’ éthique.

La société Anthropic, qui a développé les modèles de langage Claude, mène des recherches très actives sur le sujet de l’ interprétabilité des modèles de langage. Ils ont publié plusieurs articles sur le sujet que vous trouverez en référence, et leurs analyses mettent en évidence des phénomènes très intéressants.

Dans ce premier article, je vais me concentrer sur les recherches permettant d’ isoler l’ émergence de concepts « interprétables par des humains » à l’ intérieur des modèles de langage. La manière dont ces concepts sont articulés et interconnectés pour formuler une réponse cohérente fera l’ objet de mon prochain article.

Un petit mot sur l’ architecture des « transformeurs »

Les modèles de langage utilisent l’ architecture des « transformeurs » définie par Google en 2017 dans le célèbre article Attention is all you need. Je me contenterai ici d’ une explication sommaire qui devrait suffire pour nos discussions sur l’ interprétabilité, à savoir :

  • les « transformeurs » sont structurés en couches successives;
  • une couche d’ entrée découpe le texte du « prompt » en tokens puis transforme ces derniers séquence de vecteurs dans un espace de représentation. Ces vecteurs sont des représentations numériques des mots du texte, et la séquence de vecteurs correspond à la séquence de mots du prompt;
  • les autres couches du modèle transforment cette séquence de vecteurs de manière itérative, couche par couche. Les couches sont architecturalement identiques mais contiennent des paramètres de transformation différents qui ont été définis chacun lors de l’ apprentissage (ce sont les fameux « milliards » de coefficients);
  • enfin, la couche de sortie est semblable aux autres sauf qu’ au lieu de transformer la séquence de vecteurs, elle va générer une distribution de probabilités sur le prochain token à ajouter à la séquence (prédiction du prochain mot).

Voici une illustration de cette logique, avec l’ architecture du réseau à gauche et la séquence de vecteurs à droite :

Figure 1 : Architecture et flux de données d’ un transformeur

Pour être complet, chaque couche se comporte de deux sous-couches; la première, appelée couche d’ attention va combiner et enrichir le vecteur avec les informations contenues dans les autres vecteurs de la séquence. La seconde, appelée MLP (Multilayer Perceptron) est un réseau neuronal classique qui va transformer chacun des vecteurs de la séquence après avoir été enrichis par la couche d’ attention. La couche MLP applique la même transformation à chacun des vecteurs de la séquence.

Ceci est illustré dans la figure 2. Il y a une petite astuce : la couche d’ attention est commune, tandis que la couche MLP s’ applique individuellement à chacun des vecteurs « enrichis » fournis par la couche d’ attention.

Figure 2 : Détail d’ une couche du transformeur

Aller dans le détail de cette architecture dépasse largement le cadre de cet article et si vous voulez en avoir une compréhension plus approfondie, je vous conseille soit de lire le paper de Google, soit de lire l’ excellent article de vulgarisation de Jay Alammar « The Illustrated Transformer » accessible ici.

La question de l’ espace de représentation

Ce que j’ ai voulu faire ressortir de cette architecture, c’ est la centralité de l’ espace de représentation. En fin de compte, le transformeur ne fait qu’ enrichir et transformer successivement des vecteurs dans cet espace. Pour vous donner une idée, la dimension de cet espace varie d’ un modèle à l’ autre; Anthropic ne publie pas cette information mais pour OpenAI ChatGPT-4o on sait que l’ espace de représentation compte 1.536 dimensions.

L’ hypothèse que les chercheurs d’ Anthropic ont pu vérifier, c’ est que les concepts intelligibles pour les humains correspondent à des directions dans cet espace de représentation. Ceci avait déjà été établi pour d’ autres modèles d’ apprentissage linguistique comme les « word embeddings » mais pas encore pour les modèles de langage.

Dans un monde idéal, les différents axes de cet espace de représentation correspondraient directement à des concepts intelligibles par l’ homme. Les coefficients des vecteurs indiqueraient alors la présence ou l’ absence de ces concepts. Mais est-ce le cas ? Non, ce serait trop simple. En fait, les axes de cet espace sont des concepts abstraits, mais pas intelligibles par l’ homme, et donc non interprétables.

Pourquoi ? Une explication intuitive est que 1.536 est un nombre bien trop petit pour représenter l’ ensemble des concepts auxquels le réseau a été confronté pendant l’ entraînement. Les concepts vont donc se retrouver « mélangés » dans cet espace (mathématiquement, il s’ agira d’ un ensemble de vecteurs linéairement dépendants vu la trop faible dimension de l’ espace). Cette situation rend impossible l’ extraction de concepts intelligibles par une opération vectorielle élémentaire de type projection.

Le Dictionary Learning à la rescousse

Mais il y a un moyen de s’ en sortir, c’ est de combattre le mal par le mal et de faire appel à un autre algorithme d’ apprentissage machine pour extraire les concepts. Cet algorithme s’ appelle le « Dictionary Learning ».

L’ idée en est la suivante : nous allons entraîner un nouveau réseau de neurones en trois couches de la manière suivante :

  • le réseau doit être capable de générer en sortie les mêmes réponses que celles en entrée (transformation identité). La première et la troisième couche ont donc la même dimension, celle de l’ espace de représentation;
  • nous allons contraindre ce réseau à avoir une couche intermédiaire (la seconde) de beaucoup plus grande taille et pour laquelle le nombre de paramètres actifs à tous moment est très faible (idéalement 1). C’est ce qu’ on appelle une couche « sparse » (éparse).

La première contrainte à elle seule peut paraître étrange, mais elle permet d’ intercaler le nouveau modèle au milieu du modèle original sans en perturber le fonctionnement. Et la couche intermédiaire, une fois entraînée, va se comporter comme un « dictionnaire » de concepts, chacun des neurones de cette couche représentant un concept activé individuellement.

Le nombre de concepts est donc égal au nombre de neurones de cette couche. Et cela fonctionne car au fil de l’ entraînement, ce modèle va chercher à identifier les concepts présents dans l’ espace de représentation et les encoder dans un seul neurone de la couche intermédiaire.

Voici une illustration de cet algorithme:

Figure 3 : Algorithme de Dictionary Learning

Nous y sommes presque ! Il ne reste plus qu’à appliquer ce système de Dictionary Learning séparément pour chacune des couches, ce qui ne vas pas perturber le contionnement du modèle de langage puisque les couches de Dictionary Learning sont transparentes (sortie = entrée). Et voici le modèle final avec les « sondes » d’ analyse implantées :

Figure 4 : Modèle final avec sondes d’ analyse conceptuelle

Nous y sommes enfin. C’ est ce qu’ ont fait les chercheurs d’ Anthropic avec leur modèle Claude 3.0 et ils ont ainsi identifié environ 30 millions de concepts sur l’ ensemble des couches du modèle.

Maintenant que notre appareillage de mesure des concepts est en place, il est possible d’ analyser les concepts activés par des textes spécifiques. Et là, miracle, des concepts intelligibles par l’ homme apparaissent !

Le neurone « Golden Gate »

Parmi ces concepts, les chercheurs ont identifié une grande diversité de caractéristiques abstraites. Il y a des éléments relatifs aux personnes célèbres, aux pays et aux villes. Il y a aussi des éléments relatifs à des concepts abstraits comme les erreurs de programmation ou l’ addition ou encore des notions pratiques comme la présence de caractères coréens dans le texte.

De nombreuses caractéristiques sont multilingues (elles répondent au même concept dans plusieurs langues) et multimodales (elles répondent au même concept dans du texte et des images), et englobent à la fois des instanciations abstraites et concrètes de la même idée (comme du code présentant des failles de sécurité et des discussions abstraites sur les failles de sécurité).

Voici par exemple le neurone « Golden Gate » qui est activé par des textes parlant du Golden Gate. Vous pouvez voir dans la figure ci-dessous l’ influence relative des différents tokens du texte d’ entrée dans l’ activation du concept « Golden Gate » :

Figure 5 : Le concept « Golden Gate » (source : Anthropic)

Au total de nombreux concepts intelligibles ont été mis à jour par les chercheurs et vous en trouverez une liste complète ici. Et voici une illustration de quelques autres concepts identifiés :

Figure 6 : Quelques autres concepts identifiés (source : Anthropic)

On ne peut que rester étonné par la richesse et la diversité des concepts identifiés. Et ce n’ est pas tout, il est aussi possible de manipuler les concepts en modifiant les valeurs d’ activation des neurones à la main ce qui donne des effets très intéressants comme la vidéo qui suit le montre :

La manipulation des concepts internes des modèles entraîne des modifications des réponses du modèle qui vont dans le sens des modifications apportés aux concepts.

Les chercheurs d’ Anthropic ont donc réussi à prouver la correspondance entre les concepts internes des modèles et les concepts intelligibles que l’ on peut observer dans les deux directions : a) si le concept est présent dans le texte d’ entrée, le concept interne est activé et b) si le concept interne est activé manuellement, le concept intelligible est présent dans le texte de sortie.

Ceci valide le fait que ces concepts font partie intégrante de la représentation interne du monde que contient le modèle, et de la façon dont il utilise ces représentations dans la construction d’ une réponse.

Lien avec la sécurité et l’ alignement des modèles

Ces recherches visent à rendre les modèles sûrs au sens large. Il est donc particulièrement intéressant de constater que les chercheurs d’ Anthropic ont trouvé des caractéristiques correspondant à des concepts sensibles comme :

  • la notion de courriel de « spam »;
  • des capacités au potentiel néfaste : hacking informatique, développement d’ armes biologiques;
  • différentes formes de biais et de discrimination;
  • des notions de comportements problématiques par l’ IA : recherche de puissance, manipulation, dissimulation, hypocrisie.
Figure 7 : Exemples de concepts « sensibles » identifiés (source : Anthropic)

En manipulant adroitement ces concepts, il devrait donc être possible de modifier le comportement du modèle dans le sens souhaité.

Les chercheurs d’ Anthropic espèrent que ces découvertes permettront de rendre les modèles plus sûrs. Par exemple, afin de détecter certains comportements dangereux (comme tromper l’utilisateur), de les orienter vers des résultats souhaitables (débiaisage) ou d’éliminer complètement certains sujets dangereux (armes biologiques, hacking..).

Pour conclure

Nous venons de voir comment il est possible d’ isoler et d’ interpréter les composants d’ un modèle de langage lorsqu’ ils sont activés par une question de l’ utilisateur. Ces recherches ont été effectuées par Anthropic en 2024.

Reste à voir comment ces concepts s’ organisent ensemble pour créer une pensée et une réponse cohérentes de la part du modèle. Anthropic a continué ses recherches et vient de publier le résultat de nouvelles recherches à ce sujet.

C’ est ce que je vous propose d’ analyser dans mon prochain article, parce que cet article est déjà largement assez long comme cela !

Sources et références

Les Machines Gracieuses : résumé d’ un essai de Dario Amodei, PDG d’ Anthropic

Dario Amodei est le PDG d’ Anthropic, un des principaux acteurs de l’ IA générative qui a produit le modèle Claude. Il a récemment publié un texte très intéressant sur les conséquences possibles de l’ IA sur la société dans les prochaines années. Intitulé Machines of Loving Grace, ce texte, assez long et détaillé, est accessible ici.

Illustration : les Machines Gracieuses

Je trouve cet exercice très intéressant et je vais tenter d’ en résumer les principaux enseignements dans l’ article qui suit.

Le texte s’ inscrit dans une série de déclarations ambitieuses de la part des principaux acteurs du secteur, à savoir Sam Altman d’ OpenAI dans son texte The Intelligence Age ainsi que l’ interview de Demis Hassabis, PDG de Google Deepmind au Time Tech Summit 2024. Vous trouverez les liens ci-dessous en référence et si vous en avez le temps et l’ intérêt, je ne puis que vous encourager à les consulter.

Ces discussions tournent autour de la création d’ une intelligence artificielle « généraliste » (AGI en Anglais) dans un avenir relativement proche. La définition de cette AGI reste floue mais cette dernière serait globalement aussi capable et versatile qu’ un expert humain et ce dans tous les domaines, disposerait d’une capacité à agir de manière autonome dans le domaine digital voire dans le monde physique (robotique); par ailleurs, cette AGI serait en mesure de planifier et exécuter des tâches complexes pouvant demander des heures, des jours ou des semaines pour être menées à bien.

Il est frappant que l’ article de Dario Amodei suggère qu’ une telle AGI (qu’ il préfère appeler Powerful AI) pourrait apparaître à partir de 2026 dans scénario le plus optimiste. Étant donné que nous sommes à la fin de l’année 2024 et que le cycle de la recherche à la production d’une IA est d’environ 18 mois, cela implique que plusieurs directions de recherche actuelles pourraient effectivement porter leurs fruits, et il est bien placé pour savoir ce qui se passe dans ses laboratoires…

L’ article décrit avec beaucoup de clarvoyance et d’ équilibre les impacts potentiels de l’ appartition d’ une telle intelligence artificielle généraliste sur la société et sa transformation endéans les 5 à 10 ans après l’ apparition de l’ AGI. Loin des rêveries transhumanistes et de la singularité exponentielle quasi-instantanée chère à Ray Kurzweil, l’ analyse de Dario Amodei prend sobrement en compte les goulets d’ étranglement du monde physiques et les délais de transformation inhérents à chacun de ces secteurs.

De même, il écarte le scénario de l’immobilisme, selon lequel l’intelligence est paralysée par la réglementation et rien ne se passe. Au lieu de cela, il choisit une voie médiane : une intelligence d’abord limitée par toutes sortes de murs, qu’ elle s’ efforce d’ escalader et de surmonter.

Que pouvons-nous donc attendre dans les 5 à 10 ans après l’ an zéro de l’ AGI, que ce dernier soit en 2026 ou quelques années plus tard ?

1. Biologie, neurosciences et santé

L’ un des principaux obstacles à l’ accélération des découvertes biologiques est le temps nécessaire pour les expérimentations sur des cellules, des animaux ou des humains, qui peuvent durer des années. De plus, même lorsque des données sont disponibles, elles sont souvent incomplètes ou entâchées d’ incertitude, compliquant l’ identification précise d’ effets biologiques spécifiques. Ces défis sont aggravés par la complexité des systèmes biologiques, où il est difficile d’ isoler et d’ intervenir de manière prédictive.

L’ auteur souligne qu’ il veut utiliser l’ IA non pas comme un outil d’analyse de données, mais comme un chercheur à part entière qui améliore tous les aspects du travail d’ un biologiste, de la définition à l’ exécution d’ expériences dans le monde réel. Il souligne que la plupart des progrès en biologie proviennent d’ un petit nombre de percées majeures telles que CRISPR pour les manipulations génétiques ou les vaccins à ARN messager, et qu’il y a en moyenne une de ces découvertes majeures par an.

L’ IA pourrait multiplier par dix le rythme de ces découvertes, permettant de réaliser en 5 à 10 ans les progrès que les humains auraient faits en 50 à 100 ans. Des percées comme AlphaFold, qui a révolutionné la compréhension des structures protéiques, montrent d ores et déjà le potentiel de l’ intelligence artificielle pour transformer la biologie.

Cela pourrait conduire à l’ élimination des maladies infectieuses, la prévention de la plupart des cancers, la guérison des maladies génétiques et même la prévention d’ Alzheimer. Il ne considère pas les essais cliniques comme un obstacle. Les essais cliniques sont longs parce que nos médicaments sont mauvais et qu’ ils ne donnent généralement pas d’ indications claires sur leur efficacité. Cela changera si l’ IA ne produit que les médicaments les plus efficaces, avec des techniques de mesure améliorées et des critères d’ évaluation plus précis.

Dario Amodei voit un potentiel analogue dans le domaine des neurosciences, avec l’ élimination de la plupart des maladies mentales comme la schizophrénie, le stress post-traumatique ou l’ addiction à travers une combinaison de développements de nouveaux médicaments et de thérapies comportementales. La possibilité de traiter des maladies mentales ayant des causes neuro-anatomiques comme la psychopathie semble possible mais moins probable.

De tels développements -entraînant une augmentation significative de la durée de vie en bonne santé- auraient un impact positif majeur sur la sécurité sociale et son financement. Il est cependant probable que d’ autres défis apparaîtraient alors comme celui de modifier en profondeur nos infrastructures sociales, y compris les mécanismes de départ à la retraite, ainsi que d’ offrir l’ accès le plus large possible à ces technologies.

2. Aspects socio-économiques et politiques

L’ accès aux nouvelles technologies, notamment en matière de santé, ne va pas de soi. La disparité des conditions de vie entre les pays développés et les pays en développement, où le PIB par habitant en Afrique subsaharienne est d’environ 2 000$, contre 75 000$ aux États-Unis, est alarmante. Si l’ IA améliore uniquement la qualité de vie dans les pays riches, cela constituerait un échec moral majeur. L’ idéal serait que l’ IA aide également le monde en développement à rattraper les pays riches.

Cependant, Dario Amodei est moins confiant dans la capacité de l’ IA à résoudre les problèmes d’ inégalité économique, car l’économie dépend largement de facteurs humains et de la complexité intrinsèque des systèmes économiques. La corruption, omniprésente dans certains pays en développement, complique encore la tâche, mais il reste optimiste quant au potentiel de l’ IA pour surmonter ces défis.

L’ IA pourrait aussi contribuer à la sécurité alimentaire et à la lutte contre le changement climatique, des enjeux particulièrement pressants pour les pays en développement. Les technologies agricoles et les innovations pour atténuer les effets du changement climatique, comme l’ énergie propre ou l’ élimination du carbone atmosphérique, devraient aussi bénéficier des avancées en IA.

Sur le plan politique, Dario Amodei examine la question de savoir si l’ IA favorisera la démocratie et la paix, ou si elle pourrait au contraire renforcer l’ autoritarisme. Même si l’ IA réduit la maladie, la pauvreté et les inégalités, il reste la menace des conflits humains et de l’ autoritarisme. L’ auteur souligne que l’ IA pourrait tout aussi bien servir les « bons » que les « mauvais » acteurs, en particulier en matière de propagande et de surveillance, deux outils majeurs des régimes autoritaires.

Au niveau interne, l’ auteur pense que si les démocraties dominent l’ IA sur la scène mondiale, cela pourrait favoriser l’ exercice démocratique. L’ IA pourrait contrer la propagande autoritaire en offrant un accès libre à l’ information et des outils pour affaiblir les régimes répressifs, tout en améliorant la qualité de vie des citoyens, ce qui, historiquement, a tendance à encourager la démocratie. En outre, l’ IA pourrait aider à renforcer les institutions démocratiques en rendant les systèmes judiciaires plus impartiaux et en réduisant les biais humains dans les décisions juridiques. Elle pourrait également améliorer l’ accès aux services publics, renforcer la capacité des États à répondre aux besoins de leurs citoyens et réduire le cynisme à l’ égard du gouvernement. L’ idée est que l’ IA pourrait jouer un rôle central pour améliorer la transparence, l’ impartialité et l’ efficacité des systèmes démocratiques.

3. Travail et valeurs

Dans un monde où l’ IA se révèle capable de faire tant de choses, quelle valeur encore accorder à l’ éducation, à l’ effort, au travail et à la rémunération de ce dernier ?

Dario Amodei fait deux constats : le premier est que notre société est organisée de manière à traiter les déséquilibres macroéconomiques de manière progressive et décentralisée. C’est un point que j’ avais également fait dans mon article sur les risques structurels de l’ IA accessible ici. Cela ne constitue pas une garantie absolue de succès mais nous disposons à tout le moins d’ institutions représentatives et en principle capables de traiter ce genre de questions si les bouleversements ne sont pas trop rapides.

Le second est que ce n’ est pas parce qu’ une IA peut faire votre travail mieux que vous que votre travail perd sa valeur ou sa signification. Ce n’ est pas parce que vous ne courrez jamais aussi vote qu’ Usain Bolt que vous abandonnez le jogging. L’ immense majorité des gens ne sont exceptionnels en aucun domaine et cela ne semble pas les gêner outre mesure ni les empêcher de vivre ni de gagner leur vie. Par ailleurs, beaucoup de gens passent une partie importante de leur vie à effectuer des activités non-productives comme jouer à des jeux vidéos…Ce que les gens recherchent avant tout, c’est un sens de l’ accomplissement.

Et il suffit que certaines tâches restent comparativement plus difficiles pour des IA pour que les humains conservent une vraie valeur ajoutée. L’ interaction avec le monde physique restera probablement un de ces domaines, au moins dans un premier temps.

Sur le plus long terme, si des IA devaient devenir supérieures aux humains en tous points, il faudrait alors engager une discussion plus large sur notre modèle socio-économique, mais les structures sont en place pour ce faire, d’ autant plus que ces transitions devraient être progressives. La forme définitive que prendrait notre société est difficile à estimer aujourd’ hui. Mais une chose à la fois…

4. Conclusion

Ma réserve principale quant à ce texte remarquable est qu’ il ne aborde pas deux autres domaines où l’ IA peut jouer un rôle transformationnel : l’ éducation et la recherche scientifique non liée aux sciences du vivant. Quoi qu’ il en soi, l’ ajout de ces deux élements supplémentaire ne ferait que renforcer l’ impression d’ensemble qui se dégage du texte…

Je ne peux qu’ en appeler à tout le monde : prenez cela au sérieux ! Si les scénarios décrits ci-dessus ne sont pas certains, ils sont plausibles et ce qu’écrit Dario Amodei n’ est pas insignifiant, ni sans intérêt.

Nous devons en parler maintenant et réfléchir à ce à quoi notre monde pourrait ressembler dans cinq ou dix ans. Car l’ intelligence artificielle pourrait bien bouleverser nos vies bien plus vite que prévu, et nous nous trouvons ici en face d’ une transformation potentiellement plus profonde que celle que nous avons connue avec les ordinateurs ou Internet.

5. Notes et références

Intelligence artificielle et désinformation

Le problème de la désinformation est très ancien. Discerner le vrai du faux est souvent une tâche ardue, surtout quand la manipulation est volontaire et réalisée par des spécialistes décidés à influencer l’ environnement informationnel pour leur propres fins. La démocratie reposant sur l’ avis de ses citoyens et cet avis dépendant des informations dont ils disposent, il y a un avantage politique évident à tirer de l’ instrumentalisation de l’ information.

Il n’ est donc pas étonnant que ce type d’ exploitation remonte à la nuit des temps. Dès la Grèce antique, Thucydide se plaignait du peu d’ effort que le peuple fait dans la recherche de la vérité, préférant prendre pour argent comptant la première histoire qu’ il entend. A la même époque, les sophistes enseignent aux politiciens comment convaincre les électeurs de prendre leur parti, indépendamment de la pertinence de leurs idées. Et quiconque a dû traduire dans sa jeunesse des passages de La Guerre des Gaules se rend vite compte que cet ouvrage relève plus de la propagande politique que de la narration objective.

Aujourd’ hui, la situation est plus complexe et -en toute logique- pire que dans le passé, et ce pour trois raisons.

Tout d’ abord, les technologies digitales permettent la diffusion de l’ information à grande échelle et à moindre coût. Ensuite, les médias sociaux créent une nouvelle dynamique informationnelle dans laquelle il est à la fois possible d’ atteindre une audience massive sans filtrage préalable, mais également de diffuser ces informations sous le couvert de l’ anonymat. Troisièmement, le déluge de données générées par ces technologies rend possible le recours à l’ Intelligence Artificielle à ces fins de génération de contenu et de ciblage comme nous le verrons plus bas.

Par ailleurs, si la politique et les relations internationales constituent le terrain d’ affrontement informationnel le plus visible, certains acteurs économiques agissent de la même manière. Le point de contention étant ici souvent la toxicité ou la dangerosité de certains produits, le lieu de l’ affrontement se déplace vers le monde scientifique : études orientées, chercheurs décrédibilisés, instillation de doutes sur certains résultats défavorables, crédibilisation à travers des alliances avec des acteurs académiques ou professionnels… La saga du lien entre tabagisme et cancer, ou de celui entre énergies fossiles et réchauffement climatique sont révélatrices de ce genre de pratiques. Il faut cependant éviter ici une grille d’ analyse trop catastrophiste ou unilatérale : la grande majorité des entreprises s’ abstiennent de recourir à ce genre de pratiques; par ailleurs les associations de consommateurs et les ONG qui leur font face ne sont pas nécessairement au-dessus de tout soupçon elles non plus.

1. Architecture d’une opération moderne de désinformation

Voyons maintenant l’ architecture d’ une opération de désinformation organisée, sans encore recourir à l’ IA.

Celle-ci va débuter par la mise en place d’ une équipe chargée de la création de contenus subversifs. Pour cela, différentes techniques sont possibles. La première est de se baser sur des articles existants puis de les réécrire de manière orientée. L’ avantage est que les médias existants fournissent une source inépuisable de contenus qui peuvent en outre être filtrés en fonction de la thématique poursuivie. La seconde approche consiste à inventer une histoire de toutes pièces et la rédiger en conséquence.

Figure 1 : Eléments d’ une opération de désinformation organisée

Une fois le contenu créé et quelle qu’en soit sa forme (texte, image, vidéo…) il faudra s’ assurer de la publication de ce dernier sur Internet. Et c’ est ici que les acteurs et les activités se multiplient… Blogs, sites d’ information et organisations fantoches serviront de relais aux informations produites. Idéalement, les sites d’ informations et blogs mélangeront l’ information fabriquée de toutes pièces à de l’ information réelle pour ne pas trop dévoiler leur jeu. Une autre stratégie judicieuse constitue à démarrer une activité et constituer un lectorat fidèle en ne publiant que des informations réelles dans un premier temps, pour n’ introduire que plus tard des contenus fallacieux. Enfin, les organisations fantoches se présentent sous la vitrine d’ une activité publique honorable mais servent en réalité une information « frelatée ». Pour finir, l’ ensemble de ces acteurs référeront mutuellement leurs publications afin de renforcer leur crédibilité mutuelle. Un article publié sur un site d’ information sera repris par un blog (éventuellement avec des commentaires positifs) et vice-versa…les désinformeurs les plus ambitieux vont même jusqu’à créer de toutes pièces des sites d’ information imitant les médias légitimes pour servir leur contenu.

Une fois cet écosystème auto-référençant en place, reste à « pousser » l’ information vers les utilisateurs finaux. En effet, même si certains viendront d’ eux-mêmes chercher l’ information sur ces sites, afin de maximiser l’ impact il vaut mieux contacter proactivement les personnes visées soit via les réseaux sociaux, soit par le biais d’ influenceurs.

Le recours aux réseaux sociaux se fait par l’ intermédiaire de profils anonymes ou usurpés. Un profil sera construit au fil du temps et chechera à atteindre une catégorie donnée d’ utilisateurs en présentant un contenu attractif pour ces derniers, en les contactant proactivement etc… les opérations de désinformation les plus élaborées établissent différents types de messages destinés à différentes catégories d’ utiliateurs et qui « résonnent » mieux avec les préoccupations de ces derniers.

Les influenceurs jouent un rôle analogue. Il s’ agira ici souvent de personnes connues créant des contenus vidéo sur Youtube et/ou Tiktok et qui vont mentionner les contenus manipulés au cours de leurs vidéos. Il est plus difficile de créer un influenceur qu’ un simple utilisateur de réseaux sociaux mais son impact sera plus grand.

Bien sûr, ce que je décris ci-dessus constitue une opération à grande échelle et il est possible de constituer une opération plus modeste, par exemple en se réappropriant des contenus générés par des tiers.

Le but d’ une opération de désinformation n’ est pas nécessairement de pousser le public à supporter une conviction ou une idée contre une autre. L’ objectif recherché est parfois de polluer simplement la sphère informationnelle afin de semer le doute sur la crédibilité des médias et des pouvoirs publics, voire de monter les gens les uns contre les autres à des fins de déstabilisation.

2. L’ Intelligence Artificielle comme arme de désinformation

Voyons maintenant comment l’IA peut renforcer l’ opération décrite ci-dessus. Cela se fera principalement en automatisant certaines étapes du processus.

Tout d’ abord, l’ étape de création du contenu peut être fortement accélérée via l’ IA générative. Rien de plus simple que de prendre un article existant et demander à un modèle de langage de le réécrire de manière orientée. Idem pour la création à partir de rien. Quelques lignes de texte et une explication claire de l’ objectif recherché suffiront à générer un contenu suffisamment convaincant pour la plupart des internautes. Générer des images ou des vidéos manipulées est également possible via la technique des deepfakes. L’ IA générative permet littéralement de créer des « pipelines » de désinformation largement automatisés…

Figure 2 : Opération de désinformation exploitant l’ IA

Ensuite l’ IA générative va permettre de créer des profils autonomes appelés bots sur les réseaux sociaux. Ils se voient attribuer des règles de comportement pour incarner une personne virtuelle et agiront et réagiront comme tels, encore une fois avec peu ou pas d’ intervention humaine. Twitter/X est notoirement sujet à ce phénomène et on y voit régulièment des bots démasqués par un utilisateur judicieux parvenant à détourner ses instructions, une technique appelée prompt injection en sécurité informatique…

Enfin, l’IA -non générative cette fois- va permettre de regrouper et d’ identifier les personnes ciblées par groupe démographique et géographique, préférences politiques et de consommation en fonction de leur comportement en ligne. Un tel profilage qui est pratique courante dans le secteur de la publicité peut également être utilisé dans le domaine des préférences politiques ou religueuses. Il ne restera alors qu’à choisir le bon message pour convaincre le citoyen ou l’ électeur indécis.

C’ est d’ ailleurs ce type de pratique qui est à la base du scandale de Cambridge Analytica qui avait détourné des informations de comportement des utilisateurs de Facebook à des fins de microciblage politique. Vous trouverez plus d’ informations ici sur cette affaire.

3. Illustration : l’ opération Doppleganger

L’ Opération Doppleganger est une opération de désinformation politique mise en place en mai 2022 par la Russie dans le but principal d’ affaibilir le soutien occidental à l’ Ukraine. Cette opération -toujours active- a pour but de répandre quatre narratifs dans la population occidentale :

  • les sanctions contre la Russie sont inefficaces;
  • les Occidentaux sont Russophobes;
  • l’armée ukrainienne est barbare et remplie de néo-nazis;
  • les réfugiés ukrainiens contituent un fardeau pour les pays qui les accueillent.

Doppleganger recourt à de faux sites d’ information qui imitent l’ apparence de médias reconnus comme Der Spiegel, Le Figaro , Le Monde et The Washington Post.

Les articles publiés par Doppleganger sont notoirement critiques du Président ukrainien Volodymyr Zelensky et ont dans le passé fait état de ses prétendues villas sur la Riviera ainsi que des goûts de luxe de son épouse, afin de les ternir à travers des insinuations de corruption… Un autre faux article faisait état d’une taxe de 1,5% sur toutes les transactions monétaires afin de financer la guerre en Ukraine. Pour ce dernier article, les faussaires n’ ont pas hésité à créer un faux site du Ministère des Affaires Etrangères français afin de rendre l’ information plus crédible.

La campagne a été démasquée par l’ EU Disinfo Lab en Septembre 2022. Vous trouverez plus d’ informations à son sujet ici.

Si l’ opération visait initialement l’ Europe, elle s’ est élargie aux Etats-Unis en 2023, et a récemment publié des images de stars américaines comme Beyoncé ou Taylor Swift soutenant un narratif prorusse ou anti-Ukrainien. Elle progage actuellement aussi de la désinformation relative au conflit entre Israel et le Hamas.

4. Réflexions

La désinformation délibérée et organisée dont je parle dans cet article n’ est qu’ une facette de la pollution informationnelle à laquelle nous sommes confrontés quotidiennement. Celle-ci comprend également les informations inutiles ou non demandées comme le spam, les informations destinées à exacerber les émotions telles que la peur ou la colère, certaines formes intrusives de publicité ou encore la mésinformation (personnes colportant de bonne foi une information incorrecte). La multiplicité de ces informations de faible valeur contribue à une surchage informationnelle pouvant amener au rejet et au doute généralisé, y compris envers les médias traditionnels.

Or l’ accès à une information de qualité est plus que jamais crucial. C’est pourquoi je suis convaincu que les médias traditionnels ont une carte importante à jouer en se repositionnant comme gardiens de l’ information correcte et objective. Si les pratiques et l’ éthique journalistique garantissent en général l’ exactitude factuelle de l’ information, il en va autrement pour le second critère : la plupart des médias suivent une ligne éditoriale particulière qui va analyser l’ information objective à travers un prisme subjectif. Prenez la même information et lisez-la dans le Figaro et dans l’ Humanité, vous n’en tirerez pas les mêmes conclusions. Mais il me semble que ceci nuit à la crédibilité des médias en les rendant acteurs du monde informationnel polarisé au-dessus duquel ils devraient s’ élever.

J’imagine donc dans l’ avenir des médias qui se réorienteraient vers un rôle de « fact-checkers » et de pourvoyeurs d’ information où les analyses seraient plus neutres et plus objectives. Il y a certainement une opportunité à saisir mais cela ne pourra fonctionner que si les médias sont perçus comme tels par le public. Il faudra que les médias communiquent sur eux-mêmes…

5. Sources et références

Un point sur la réglementation européenne des modèles génératifs

Vous l’ aurez probablement lu ou entendu dans les médias ces derniers jours : les Institutions Européennes ont trouvé un accord sur la future réglementation de l’ Intelligence Artificielle ce vendredi 8 décembre. C’ est le fameux European Artificial Intelligence Act dont j’ avais déjà esquissé les grandes lignes dans un article précédent.

A l’ époque, je n’ avais pas parlé de la réglementation des modèles généralistes car ce point restait en discussion. Il est maintenant temps de pallier à cette omission.

Ce qui suit se base sur les informations disponibles 48 heures après l’ accord. Le texte détaillé de l’ accord n’est pas encore connu; il devrait être publié avant le 22 janvier, date du premier comité parlementaire à son sujet. Mon but n’ est cependant pas d’ aller dans le détail mais juste de vous donner un aperçu de l’ approche retenue.

1. Pourquoi l’ IA généraliste complique la réglementation

Les modèles IA généralistes sont apparus il y a quelques années. On les définit en fonction de la modalité qu’ ils traitent (texte, image, vidéo, 3D...) et de leur nature discriminative ou générative.

Ces modèles se caractérisent par un large spectre d’ applications, et leur grand avantage est de pouvoir être affinés pour réaliser avec précision un tâche spécialisée. Cet affinage peut être réalisé par une autre entreprise disposant de moyens bien inférieurs à ceux nécessaires à l’ entraînement du modèle de base. Un modèle textuel génératif comme GPT3 peut donc être adapté pour réaliser différentes tâches dans différents secteurs (par exemple des chatbots pour du service à la clientèle).

Figure 1 : l’ IA généraliste, aspects discriminatifs et génératifs

Dès lors, la chaîne de valeur de l’ IA généraliste peut mettre en jeu plusieurs acteurs : un acteur en amont qui développe un modèle généraliste puissant et le met à disposition d’ acteurs en aval qui vont affiner et exploiter le modèle pour le mettre à leur tour sur le marché à destination des utilisateurs finaux.

Cette multiplication des acteurs ne s’ intègre pas bien dans la logique de l’ EU AI Act qui se base sur le risque pour l’ utilisateur final. Cette logique est appropriée pour une application IA développée par une organisation dans un but spécifique, mais si l’ on applique cette logique à l’ IA généraliste seuls les acteurs en aval seront directement sujets à la réglementation. La réglementation de l’ acteur en amont ne se fera qu’ indirectement par « percolation » des exigences posées sur les acteurs en aval. Pas très équilibré si vous êtes une petite start-up qui exploite un modèle développé par Google ou OpenAI… et vu le rôle techniquement central de l’ acteur amont, les risques ne sont pas réglementés à leur source.

Figure 2 : Les acteurs de l’IA généraliste

Il a donc fallu définir une réglementation différente pour l’ IA généraliste. Celle-ci va s’ appliquer spécifiquement à l’ acteur amont. Ceci ne dédouane pas entièrement l’ acteur aval qui reste soumis aux contraintes réglementaires basées sur le risque utilisateur, mais ce dernier peut au moins se reposer sur la conformité du modèle généraliste sur lequel il se base.

2. Réglementation de l’ IA généraliste

Cette réglementation fait la distinction entre deux catégories de modèles sur base de leur puissance : les modèles les plus capables sont appelés « systémiques » par opposition aux autres.

Tous les modèles généralistes sont soumis à des exigences de transparence : ils doivent documenter en détail l’architecture du modèle ainsi que le jeu de données qui a servi à son entraînement, et confirmer le respect des droits d’auteur. Le contenu généré par un modèle génératif devra être reconnaissable comme tel.

De plus, les modèles considérés « systémiques » vont êtres soumis à des exigences supplémentaires : leurs créateurs devront mener à bien des évaluations du modèle, démontrer comment ils gèrent et mitigent les risques, notifier les autorités en cas d’ incident et démontrer leur résilience face aux cyberattaques.

Les modèles généralistes open-source bénéficieront d’ une réglementation allégée (au moins pour les non-systémiques), mais la nature de cet allègement n’ est pas encore claire.

Toutes ces exigences seront détaillées et précisées à travers des standards européens harmonisés qui seront établis par des organismes comme le comité IA du CEN/CENELEC, une fois l’ Acte voté.

3. Notes et références

Quelques mots au sujet de la réglementation européenne sur l’ Intelligence Artificielle

L’ idée de cet article est de vous fournir un aperçu et quelques pistes de réflexion sur l’ état de la législation européenne sur l’ Intelligence Artificielle.

En effet, l’ European Union Artificial Intelligence Act, pour l’appeler par son nom, est actuellement en discussion avancée auprès des Institutions Européennes. L’ objectif est de finaliser le texte pour la fin de l’ année 2023 afin de le faire voter par le Parlement Européen avant les prochaines élections européennes de juin 2024. Il faudra ensuite encore au moins 18 mois pour mettre en place les structures et procédures d’ exécution. La loi deviendrait donc opérationnelle à partir de début 2026 au plus tôt.

La récente montée en puissance de l’ IA « généraliste » -qui englobe l’ IA générative- complique les choses car elle ne s’ intègre pas facilement dans le cadre réglementaire que je vais décrire ci-dessous; sa prise en compte dans l’ AI Act fait actuellement l’ objet d’ intenses tractations.

Afin de ne pas allonger trop cet article, je vais ici me concentrer sur le traitement de l’ IA « traditionnelle », et je couvrirai la problématique de l’IA généraliste dans le prochain article.

Je ne suis pas juriste et donc le texte qui suit ne saurait se substituer à l’avis éclairé d’un homme de l’ art; mais si je peux vous permettre de comprendre la situation d’ensemble et de poser les bonnes questions aux spécialistes en la matière j’ estimerai avoir atteint mon but.

1. Contexte

Le but de l’ EU AI Act est de réglementer de manière uniforme la vente et l’ utilisation de produits et services basés sur l’ IA dans l’ Union Européenne. Cette législation est potentiellement très importante car elle est la première au monde qui adresse explicitement les risques causés par l’ Intelligence Artificielle.

Elle vient complémenter les autres législations européennes qui réglementent l’ économie digitale : le RGPD, le Digital Services Act et le Digital Markets Act. Le RGPD couvre la protection des données personnelles des citoyens de l’ UE, le DMA empêche les grandes plateformes systémiques (Google, Apple, Meta, Microsoft… ) d’ abuser de leur position dominante, et le DSA réglemente les différents aspects de l’ offre de services en ligne comme par exemple la lutte contre les contenus illégaux.

Comme le RGPD, l’ EU AI Act aura très probablement un impact global car son champ d’action couvre non seulement tous les systèmes IA mis sur le marché dans l’ UE mais aussi tous les services en ligne mis à disposition des citoyens de l’ UE, indépendamment de la localisation des fournisseurs de services….

Trois domaines sont exclus du champ de la législation : les applications militaires, les systèmes IA développés dans un but de recherche scientifique et les modèles gratuits et/ou open-source.

2. Approche basée sur le risque

L’idée fondamentale de la législation est d’ évaluer chaque système IA en fonction du niveau de risque qu’ il fait courir aux utilisateurs; ceci donne lieu à un classement de l’ application parmi quatre catégories. Ces catégories vont déterminer le niveau de réglementation qui sera d’ application.

Ces catégories sont : risque inacceptable, risque élevé, risque limité et risque minimal. Assez logiquement, ce sont surtout les deux premières catégories qui font l’ objet des attentions de l’ AI Act.

Figure 1 : la pyramide des risques de l ‘AI Act

Cette approche est logique vu le but de protection des citoyens recherché. La loi est neutre au niveau technologique et réduit les contraintes sur les applications peu risquées afin de limiter autant que possible la charge administrative sur les développeurs.

Voyons maintenant chacune des catégories plus en détail.

3. Risque inacceptable

Ces applications sont considérées comme faisant courir un risque inacceptable aux utilisateurs et sont donc interdites par l’ AI Act.

La liste actuelle de ces applications comprend trois catégories de systèmes :

  • les systèmes qui manipulent les utilisateurs à travers des messages subliminaux ou en exploitant les vulnérabilités de certains groupes d’utilisateurs (comme les enfants);
  • les systèmes de crédit social, qui attribuent un score de fiabilité aux citoyens en fonction de leur comportement social;
  • les systèmes d’identification biométrique en temps réel dans les espaces publics (notamment la reconnaissance faciale).

Certaines dérogations sont en discussion, comme l’ identification biométrique en cas de suspicion de crime grave ou de recherche de mineurs disparus.

La mention des systèmes de crédit social me semble curieuse car elle ne nécessite pas en soi de l’ IA pour être mise en place. Il me semble qu’ il s’ agit surtout d’une réaction au projet chinois en ce sens et de s’ assurer qu’ aucun pays européen n’ a la mauvaise idée de les imiter.

4. Risque élevé

C’ est la catégorie-clé de l’ EU AI Act.

Les applications IA sont considérées comme présentant un risque élevé si une des deux conditions suivantes est réunie :

  • l’ IA est intégrée dans un produit qui est lui-même soumis à une réglementation existante en matière de sécurité. C’ est par exemple le cas des automobiles, des avions, des jouets, des équipements médicaux ou encore des ascenseurs.
  • l’IA est exploitée pour remplir une tâche sensible dans un des huit domaines ci-dessous :
    • les systèmes d’identification biométrique qui ne constituent pas un risque inacceptable;
    • la gestion des infrastructures critiques : route, chemin de fer, eau, gaz, électricité…;
    • l’ éducation et l’apprentissage professionnel;
    • l’ emploi et la gestion des travailleurs;
    • l’ accès aux services publics essentiels : logement, aide sociale, soins de santé…;
    • la police;
    • le contrôle aux frontières, la migration et l’ asile;
    • la justice et les processus démocratiques (élections etc…).

La définition précise de ce qui constitue une tâche sensible est toujours en discussion, mais l’ idée est de se concentrer sur les tâches qui jouent un rôle dans la prise de décision.

Ces systèmes à haut risque seront soumis à un processus d’ évaluation au cours duquel ils devront démontrer que toutes les mesures possibles ont été prises pour assurer leur fiabilité et leur sécurité. Après la mise sur le marché, les exploitants devront mettre en place un mécanisme de supervision et de suivi des incidents sérieux qui devront être notifiés aux autorités.

Vous remarquerez que les soins de santé ne sont pas repris dans la liste, ce qui peut surprendre. La raison est que ce secteur est déjà largement couvert par des législations spécifiques de sécurité, c’est donc la première condition mentionnée ci-dessus qui va s’appliquer.

5. Risque limité

Les applications à risque limité sont typiquement celles dans lesquelles l’ utilisateur interagit directement avec une IA mais sans tomber dans le champ des risques élevés (ou inacceptables) définis ci-dessus.

Dans ce cas, l’exploitant est uniquement soumis à une obligation de transparence : il doit informer l’ utilisateur qu’ il interagit avec une IA afin d’ éviter toute manipulation et lui permettre de choisir de continuer ou non l’interaction.

Cette catégorie inclut les systèmes de chatbot, les générateurs d’images, d’audio et/ou de vidéo de synthèse, ainsi que les générateurs de deepfakes.

6. Risque minimal

Ces applications utilisent l’ IA dans une fonction qui ne pose aucun risque pratique pour l’utilisateur, comme des jeux vidéo ou des filtres anti-spam.

Elles ne sont soumise à aucune contrainte spécifique par l’ AI Act.

La grande majorité des systèmes IA actuels entre dans cette dernière catégorie.

7. Conclusions

La législation n’est pas encore votée donc des évolutions auront encore lieu, et il sera très intéressant de voir quels compromis seront adoptés dans la version finale. Mais la pierre d’ achoppement principale est sans conteste la réglementation de l’ IA généraliste, dont je reparlerai.

Une autre partie importante des discussions en cours porte sur les mécanismes de mise en oeuvre, et ces derniers sont absolument cruciaux. Il ne suffit pas de faire voter un beau texte pour changer le cours des choses; il faut aussi que les provisions de la loi soient implémentables et exécutables, faute de quoi l’ AI Act restera lettre morte dans la pratique.

Sources et références