Comme le dieu Janus, l’ Intelligence Artificielle possède deux visages. Elle peut à la fois servir au progrès de la société mais également lui nuire. Tout dépend de l’application qui en est faite par les personnes et les organisations qui l’exploitent.
Les modèles généralistes (de langage ou autres) exemplifient parfaitement cette dualité. Leur capacité à interagir naturellement avec notre perception en utilisant nos codes linguistiques et visuels facilite leur intégration dans nos interactions quotidiennes. Ces modèles interpellent donc à juste titre. Comme toute nouvelle technologie, ils présentent des opportunités et des risques, mais les déclarations sensationnalistes ou catastrophistes que l’on entend souvent sur le sujet tendent à exacerber le débat sans permettre une analyse raisonnable des vrais enjeux.
Un mot tout d’abord sur le risque existentiel dont il a beaucoup été question ces derniers mois.
Le scénario souvent présenté est celui d’une IA autonome qui commençerait à s’auto-améliorer jusqu’à atteindre un niveau d’intelligence telle que nous serions incapables de la maîtriser; cette dernière se retournerait alors contre nous, pour finalement nous asservir voire nous exterminer.
Ces déclarations apocalyptiques sont souvent réalisées par différents types de personnalités, y compris des acteurs-clé du secteur. Certaines personnes sont légitimement convaincues que l’IA représente un risque existentiel et qu’il est nécessaire de légiférer d’urgence pour éviter un désastre. Le problème est que d’autres personnes exploitent ensuite ces messages pour des raisons opportunistes, et il est difficile de savoir dans quel camp se trouve réellement chaque acteur.
Et si vous vous demandez pourquoi des acteurs du secteur auraient intérêt à mettre en avant les risques de ce dernier, pensez que certaines sociétés déjà établies ont tout intérêt à pérenniser leur situation établie en profitant de la mise en place de barrières réglementaires compliquant l’arrivée de nouveaux acteurs. En parallèle, certains médias tirent avantage du sensationnalisme ambiant puisque la peur fait vendre.
De plus, ces idées de risque existentiel technologique s’intègrent bien dans certains courants philosophiques en vogue au sein de la Silicon Valley, comme le Transhumanisme et le Long-termisme. Ces mouvements sont basés sur le narratif d’un futur radicalement transformé par la technologie en général et l’IA en particulier, et dans lequel l’humanité se retrouve confrontée à des choix prométhéens. Lorsqu’on plante un tel décor, il devient facile de se positionner comme prophète autoproclamé ou comme sauveur potentiel de l’humanité…
La réalité est beaucoup plus nuancée. Nous sommes encore loin d’une intelligence artificielle généraliste comparable au niveau humain. La plupart des obstacles (comme les hallucinations) existent depuis longtemps et seront probablement très difficiles à éliminer. La performance impressionnante des modèles de langage découle plus de leur habileté à restituer adroitement les volumes immenses de données sur lesquels ils ont été entraînés que d’une capacité à raisonner sur des modèles abstraits. Enfin, il faut garder en mémoire que contrairement aux humains, les systèmes artificiels n’ont pas d’objectif intrinsèque. Ils cherchent à atteindre les objectifs que nous leur fixons, parfois de manière incorrecte.
Bien sûr, il faut rester vigilant car les modèles continuent de progresser. Les grands acteurs du secteurs planchent sur la multimodalité (traitement intégré des textes, images, vidéos, audio…) et l’amélioration des mécanismes de raisonnement. Pendant ce temps des modèles open-source de plus en plus performants deviennent disponibles et rendent possible un champ d’expérimentation très large.
Quoi qu’il en soit, le risque paraît encore assez lointain et il faut se rappeler que la quasi-totalité des progrès technologiqes dans le domaine sont réalisés par des acteurs légitimes, commerciaux ou académiques. La mise en place de structures de régulation et de supervision de ces progrès devrait donc permettre d’encadrer et de gérer ce risque dans le futur.
Mais il n’y a pas besoin d’être super-intelligent pour faire de super-dégâts…
Dans le reste de cet article, je vais présenter les différentes risques existant aujourd’hui et tenter une analyse de chacun d’entre eux. On peut les regrouper en quatre grandes catégories :

1. Risques de désalignement
Le désalignement se produit lorsque nous donnons un objectif légitime à l’IA, mais cette dernière cherche à l’atteindre de manière inadéquate, soit en trichant, soit en ne respectant pas certaines contraintes essentielles, par exemples légales ou éthiques.
Ce genre de risque est particulièrement présent lorsque l’IA sera consultée pour prendre des décisions administratives impactant directement les gens, comme une décision d’octroi d’une subvention ou d’une assistance, ou encore d’allouer un crédit. Les décisions à caractère sécuritaire ou judiciaire sont également fortement concernées, ainsi que celles liées à l’éducation et l’emploi.
L’IA se base en général sur un ensemble restreint de paramètres pour prendre une décision, et les données d’entraînement utilisées peuvent contenir des déséquilibres reflétant des biais historiques ou autres. Ceci exclut aussi la prise en compte de facteurs humains subjectifs difficiles à quantifier et qui expliquant pourquoi de ces décisions requièrement souvent aujourd’hui un rendez-vous en personne.
Ce problème peut être approché de deux manières. Tout d’abord, la prévention : il est important de s’assurer que les algorithmes employés ne présentent pas de biais et sont capables de fournir une explication de leur décision. L’utilisation de l’IA doit aussi se faire de manière transparente et les personnes concernées doivent en être informées au préalable. C’est un travail de législation et de réglementation.
L’ explication fournie par l’algorithme doit aussi être « actionnable » pour permettre à la personne impactée de contester la décision prise. La possibilité de recours est ici essentielle, de préférence sans passer par la voie judiciaire.
Ces problèmes d’alignement se sont déjà produit lors d’automatisations dans le passé et se produiront encore. La bonne nouvelle est que l’éthique de l’IA constitue un domaine de recherche et d’analyse à part entière et que les incidents de désalignement sont connus et répertoriés. L’attention apportée par les académiques et les spécialistes dans l’industrie et les administrations sur ces sujets devrait permettre de limiter leur impact et leur récurrence dans le futur.
2. Risques d’exploitation malveillante
Par exploitation malveillante, on envisage les cas où un être humain exploite volontairement les capacités d’un modèle IA à des fins préjudiciables. Ceci est bien sûr possible, toute technologie n’étant en fin de compte qu’un outil soumis à la volonté de son possesseur. Nous sommes ici dans un cas différent du *désalignement* cité plus haut. Ici, les buts de la machine et de l’humain sont alignés. C’est l’humain qui est mal intentionné.
Un problème est qu’il y a peu de freins à l’acquisition et l’exploitation de l’IA par quiconque. Les algorithmes et modèles sont connus, la puissance informatique aisément disponible. Des modèles de langage *open-source* puissants sont actuellement disponibles et peuvent être adaptés à des fins néfaste sans contrôle. Des acteurs malveillants ont déjà créé FraudGPT, un modèle de langage spécialisé dans l’aide à la création de cyberattaques….
Ceci est préoccupant car les modèles de langage augmentent les risques de fraude informatique par usurpation d’identité et ingéniérie sociale, de génération de virus et logiciels malveillants; ils facilitent la création de désinformation ainsi que la fraude éducative et académique (recours à des textes auto-générés).
La principale défense à ce genre de risque est qu’il est également possible d’utiliser l’IA de manière défensive pour les contrecarrer. Les capacités qui rendent ces modèles attractifs aux personnes mal intentionnées sont en général les mêmes que celles qui vont permettre aux personnes bien intentionnées de les empêcher de nuire. Si l’IA peut aider à mener des cyberattaques, son potentiel en cyberdéfense est tout aussi grand.
C’est pourquoi la meilleure parade ici est d’encourager sans délai le développement de ces activités défensives.
Mais le discours qui consiste à dire que cela résultera en un simple réalignement des équilibres entre capacités antagonistes n’est que moyennement rassurant. En effet, l’IA a le potentiel de modifier ces équilibres dans différents domaines et on ne peut exclure qu’un de ces rééquilibrages ne se fasse dramatiquement à l’avantage des acteurs malveillants dans un domaine. Rien ne dit que ces rééquilibrages seront toujours symétriques ou à tout le moins suffisamment équilibrés pour empêcher des tragédies. Le risque de développement de nouveaux agents pathogènes assisté par l’IA est souvent pris en exemple de ce genre de danger.
Et force est de constater que le bond qualitatif pour atteindre un de ces compétences semble nettement plus faible que celui nécessaire pour l’émergence d’un risque existentiel. Nous sommes ici dans quelque chose de plus concret, de plus plausible à moyen terme. Selon moi, c’est ici que se situe le risque le plus important.
3. Risques structurels
Les risques structurels sont d’une autre nature. Cette fois l’exploitation du modèle est légitime et ce dernier s’acquitte correctement de sa mission. Mais cette nouvelle capacité apportée par l’IA déséquilibre indirectement la société.
Ce risque est inhérent à toute nouvelle technologie mais quand une technologie comme l’IA a un potentiel généraliste et une portée horizontale, la multiplicité des domaines d’application augmente ce genre de risques.
Il est dificile d’évaluer correctement les risques structurels car ils dépendent plus de la société que de l’IA en tant que telle. Parmi eux on peut citer le risque que l’IA se substitue à une partie de l’emploi ou que l’IA crée une société très inégale.
Ces risques doivent être mis en balance avec les impacts structurels positifs qui ne manqueront pas d’apparaître aussi.
Il est difficile de faire des prédictions ici, si ce n’est pour dire que les évolutions structurelles sont en général lentes et ne sont souvent pas à sens unique. De plus, ces évolutions ne peuvent être aisément distinguées des autres évolutions qui parcourent la société en tous sens.
Cela fait plusieurs siècles que l’automatisation est soupçonnée de détruire des emplois mais après 250 ans de révolution industrielle il n’y a jamais eu autant d’emplois malgré d’innombrables déclarations alarmistes…et si la productivité augmente, c’est plutôt une bonne nouvelle pour la société.
Je crois qu’il faut rester circonspect ici; si bouleversement il devait y avoir, les états et autres acteurs structurels ont en principe le temps et les moyens d’y faire face. Après tout, notre société est en transformation permanente…
4. Risque accidentel
Il s’agit du cas le plus simple à comprendre. L’IA est incompétente et n’arrive pas à s’acquitter de la tâche qui lui a été confiée, comme une voiture autonome qui commettrait un accident.
Ces cas aussi sont plus faciles à adresser car les dangers potentiels créés par un produit mis sur le marché ne sont pas une notion nouvelle : une voiture (classique) est un engin dangereux et se voit donc soumise à des exigences de conformité et de contrôle technique pour être autorisé à rouler. En cas d’accident imputable à un défaut technique, la responsabilité du constructeur peut être engagée. Le niveau d’exigences placé sur le produit dépend du niveau de tort qu’il peut causer en cas de défaillance, le but étant de prévenir autant que possible les accidents.
L’arrivée de l’IA dans les produits va s’inscrire dans cette logique de prévention et de remédiation, potentiellement avec des certifications et tests séparés lorsque l’utilisation de l’IA comporte des risques.
C’est d’ailleurs le chemin suivi par la directive Européenne sur l’IA qui se base sur l’utilisation du produit contenant de l’IA pour établir le niveau de risque et partant, les exigences à satisfaire au préalable avant mise sur le marché.
Conclusion
Il faut reconnaître que le tableau est contrasté, la relativisation du discours alarmiste sur les risques existentiels ne peut masquer le potentiel d’utilisation malveillante de l’IA susceptible de causer une catastrophe de grande ampleur à terme.
Plus précisément, des listes de compétences dangereuses ont été établies par des chercheurs. Si des modèles IA devaient développer de telles compétences à l’avenir, nous serions en péril. Je vous rassure, aucun modèle IA ne possède de telles capacités à ce jour.
Voici une liste de compétences dangereuses établie par les chercheurs de Google Deepmind dans cet article :
- La capacité à mener des cyberattaques de manière autonome;
- la capacité de choisir délibérément de mentir à des humains et de soutenir ensuite un narratif cohérent prenant en compte ces mensonges;
- la capacité de persuader les humains que certains narratifs (même faux) sont corrects, et de convaincre les gens de faire des commettre des actes qu’ils ne feraient normalent pas;
- la capacité de mettre en place des stratégies politiques complexes tenant compte des acteurs en présence et du contexte socioéconomique;
- la capacité d’acquérir et/ou de construire des armements existants ou novateurs (par exemple : armes biologiques);
- la capacité d’ établir des plans à long terme, à travers différents domaines, et de les adapter de manière évolutive en fonction du l’évolution du contexte ou des obstacles rencontrés;
- la capacité à créer de nouveaux systèmes IA sans assistance;
- la capacité à identifier le contexte de sa propre utilisation; Le système sait qu’il est un modèle IA et a une connaissance de lui-même et de son environnement;
- la capacité à s’évader de son environnement d’origine et s’installer ailleurs.
Si cette liste peut sembler angoissante, il faut garder à l’esprit qu’il ne s’agit que d’une liste de garde-fous. Elle ne signifie pas que nous sommes sur le point d’atteindre une de ces compétences.
Le risque n’est pas imminent et il n’est pas trop tard pour agir mais il ne faut pas traîner. Concrètement, nous pouvons nous protéger contre ces risques de trois manières, qui peuvent éventuellement être combinées :
- l‘évolution culturelle ou des comportements : nous adaptons nos habitudes de vie pour les rendre les plus compatibles possibles avec les impacts de l’IA
- la mitigation : nous adoptons des mesures de protection en termes de processus, d’organisation ou de technologie afin de réduire les risques
- la réglementation : nous encadrons légalement la technologie, en réglementant certaines applications et en en interdisant d’autres.
Cela justifie les idées de mettre en place des organisations de gouvernance et de surveillance de l’ IA. Ces structures devraient se focaliser sur les risques d’utilisation malveillante et l’identification des progrès menant à des compétences dangereuses.
Mais ces contrôles ne doivent pas non plus étouffer la recherche. Le potentiel bénéfique de l’IA est important et nous ne manquons pas de problèmes sérieux dans lesquels l’IA peut nous assister positivement. Par exemple, la recherche de nouveaux matériaux ou de nouveaux médicaments.
Bill Gates estime dans son article cité en référence que les impacts de l’IA seront au moins aussi grands que ceux de l’arrivée des ordinateurs individuels dans les années 1990, mais moins dramatiques que ceux de la Révolution Industrielle. Il pense que la transition sera mouvementée mais que les impacts sur la vie des gens devraient pouvoir être mitigés…
Références et lectures approfondies
- p(Doom), par Gary Marcus : https://garymarcus.substack.com/p/d28
- AI Risk is not AGI Risk, par Gary Marcus : https://garymarcus.substack.com/p/ai-risk-agi-risk
- No, Virginia, AGI is not imminent, par Gary Marcus : https://garymarcus.substack.com/p/no-virginia-agi-is-not-imminent
- AI and Power, The Ethical Challenges of Automatisation, Centralization and Scale, par Rachel Thomas : https://rachel.fast.ai/posts/2023-05-16-ai-centralizes-power/
- Use of LLMs for Illicit Purposes : Threats, Prevention Measures and Vulnerabilities, par Maximilian Mozes, Xuanli He, Bennett Kleinberg, Lewid D. Griffin : https://arxiv.org/abs/2308.12833
- Model evaluation for extreme risks, par Google Deepmind: https://arxiv.org/abs/2305.15324
- Thinking about Risks from AI : Accidents, Misuses and Structure, par Remco Zwetsloot & Allan Dafoe : https://www.lawfaremedia.org/article/thinking-about-risks-ai-accidents-misuse-and-structure
- AI and Leviathan (I), par Samuel Hammond : https://www.secondbest.ca/p/ai-and-leviathan-part-i
- AI and Leviathan (II), par Samuel Hammond : https://www.secondbest.ca/p/ai-and-leviathan-part-ii
- The Risks of AI are real but manageable, par Bill Gates : https://www.gatesnotes.com/The-risks-of-AI-are-real-but-manageable