Rendre l' IA accessible à tous

Catégorie : Applications

Perplexity, le moteur de recherche IA de nouvelle génération

Je voudrais vous parler aujourd’ hui d’ une application très utile des modèles de langage: Perplexity qui est un engin de recherche conversationnel accessible ici.

Les engins de recherche conversationnels sont basés sur un modèle de langage qui exploite un moteur de recherche internet comme source d’ informations. Le modèle de langage pilote la recherche : il définit les mots-clés, et exploite ensuite le résultat de la recherche pour construire sa propre réponse envers l’ utilisateur.

Ceci permet de combiner les avantages des modèles de langage (capacité de fournir une réponse articulée et cohérente) avec ceux des moteurs de recherche (accès direct et à jour de l’ ensemble des données publiquemeent disponibles sur internet).

Perplexity est un outil extrêmement convivial et efficace à utiliser.

J’ ai remplacé Google Search par Perplexity pour les recherches standard effectuées par mon navigateur. Cela demande un peu d’ adaptation vu nos habitudes bien ancrées, mais je ne regrette pas l’ effort…

1. Demandes navigationnelles et informationnelles

Démarrons par une observation importante : nous avons recours à des moteurs de recherche pour deux types de demandes bien distinctes : les demandes navigationnelles et les demandes informationnelles.

Les demandes navigationnelles correspondent à la recherche d’ un site. Vous ne tapez pas l’ URL en entier mais seulement un partie de celui-ci et éventuellement quelques mots-clés pour arriver sur le site désiré. Pour ce type de recherche, Perplexity fonctionne mais n’ apporte pas réellement de valeur ajoutée par rapport à un moteur de recherche classique, à part éventuellement une présentation plus dépouillée et moins chargée en publicités.

Les demandes informationnelles sont celles où vous recherchez une information ou une explication, à résoudre un problème ou comprendre un concept. Vous ne savez pas exactement où chercher mais vous avez une question. C’ est dans ce type de recherches que Perplexity brille par son efficacité, bien supérieure aux engins traditionnels qui vont vous envoyer vers différentes pages dans lesquelles vous devrez chercher vous-même l’ information. Perplexity va automatiser cette étape et directement fournir une réponse qui tente de répondre à votre besoin. Qui plus est, vous pouvez ensuite engager un dialogue avec Perplexity et demander des éclaircissements supplémentaires.

Il y a lieu de bien distinguer les deux types de recherche. Il m’ arrive encore de recourir à Google Search pour des demandes navigationnelles mais Perplexity est indiscutablement très supérieur pour les recherches informationnelles (et ce sont les plus intéressantes).

2. Interfaces de base et options de recherche

Voyons maintenant comment fonctionne Perplexity. L’ interface offre assez bien de possibilités intéressantes que nous allons passer en revue.

Figure 1 : Interface utilisateur de Perplexity

Outre l’ invite traditionnelle (Ask Anything), le champ Focus permet de préciser le type de recherche; les options possibles sont :

  • Web : le choix par défaut, la réponse est enrichie par les recherches du modèle sur Internet comme décrit plus haut;
  • Academic : le modèle concentrera ses recherches sur des documents académiques publiés;
  • Math : le modèle essaiera de trouver une réponse mathématique et/ou numérique;
  • Writing : plus proche de chatGPT, ce choix n’effectue pas de recherches internet mais se concentre sur la qualité de rédaction;
  • Video : oriente la recherche vers des vidéos répondant à la recherche;
  • Social : oriente la recherche vers les réseaux sociaux, vers des discussions et des opinions liées au sujet.
Figure 2 : Types de recherches possibles

Indépendamment du choix précédent, le bouton Attach permet d’ ajouter des fichiers que vous possédez et qui pourront supporter Perplexity dans sa recherche.

3. Recherches rapides et recherches pro

Il est également possible de choisir entre une recherche « Rapide » et une recherche « Pro » au moyen du commutateur se trouvant à droite de l’ invite.

La différence principale est que la recherche « Pro » ajoute une phase de raisonnement structurées par le modèle; les étapes intermédiaires du raisonnement dont présentées à l’ utilisateur ainsi que les recherches correspondant à chaque étape. Enfin, la dernière étape consiste en une synthèse des informations collectées.

Figure 3 : Bandeau de raisonnement structuré d’ une recherche « Pro »

Les recherches « Pro » sont limitées à un petit nombre par jour (actuellement 3) pour les utilisateurs gratuits de Perplexity ; elles sont pratiquement illimitées pour les utilisateurs payants.

En pratique je trouve les recherches « rapides » satisfaisantes la grande majorité du temps. De plus il vous est toujours possible de poser à nouveau la question en mode « pro » si la réponse rapide ne vous satisfait pas, comme nous allons le voir.

4. Exploitation des résultats

La présentation des résultats d’ une recherche est elle aussi intéressante. Je la trouve d’ une grande sobriété comparé par exemple à une recherche Google.

Voici la structure typique d’ une réponse donnée par Perplexity :

Figure 4 : Structure d’ une réponse typique

Le texte de la réponse se trouve en-dessous des sources et reprend des références numérotées aux différentes sources à différents endroits de la réponse. Vous pouvez voir l’ ensemble des sources en cliquant sur le bloc à droite des sources intitulé Show All.

Figure 5 : Liste des sources

Outre la lecture de la réponse, il est possible d’ entreprendre des actions supplémentaires. Tout d’ abord, les boutons dans la partie droite de l’ écran permettent de rechercher des images (Search Images ) ou des vidéos (Search Videos) en rapport avec la discussion. Les utilisateurs de l’ abonnement payant pourront aussi demander la génération d’ une image (Generate Image).

La partie inférieure de l’ écran permet de continuer le dialogue, par exemple en posant une nouvelle question ou en demandant un éclaircissement. La partie Related propose un série de questions complémentaires ayant trait au sujet, vous pouvez en choisir une ou rédiger une question à la main.

Figure 6 : Actions supplémentaires

Rewrite permet de demander au modèle une réécriture de la réponse, par exemple en passant d’une recherche rapide à une recherche « pro »; Share permet ensuite de partager un lien vers la recherche complète.

C’ est d’ ailleurs un autre avantage majeur de Perplexity : tous les dialogues de recherche précédents sont stockés dans la Library et vous pouvez à tout moment les relire voire continuer le dialogue. Ces dialogues peuvent également être partagés avec d’ autres utilisateurs en leur envoyant le lien correspondant, mais ces derniers ne peuvent pas les modifier: il s’ agit d’ un accès en lecture seule.

5. Autres fonctionnalités : Discover & Spaces

Pour terminer ce tour d’ horizon de Perplexity en étant complet, il faut encore citer les fonctionnalité Discover et Spaces.

Spaces permet de créer un espace partagé de collaboration dans lequel un ou plusieurs utilisateurs que vous invitez pourront dialoguer avec le modèle sur un sujet donné. Chaque dialogue entre un utilisateur et le modèle donnera lieu à un thread spécifique mais ces derniers seront accessibles en lecture par les autres utilisateurs. En fin de compte c’ est assez proche de la fonction de recherche sauf que vous pouvez regrouper plusieurs dialogues de plusieurs utilisateurs au sein d’ un même espace collaboratif.

Les Spaces que vous créez sont configurables en chargeant un ou plusieurs fichiers de référence et en introduisant une instruction qui va décrire le rôle de l’ espace et sa finalité.

Figure 7 : Les espaces collaboratifs de Perplexity

Il n’y a pas grand’ chose à dire sur Discover si ce n’est que ce sont des recherches conversationnelles publiques que Perplexity estime susceptibles de vous intéresser.

6. Pour conclure

Après quelques semaines d’ utilisation intensive de Perplexity, je suis un utilisateur convaincu; c’ est ce qui m’ a poussé à écrire cet article.

Le grand avantage se situe au niveau des recherches informationnelles pour lesquelles la combinaison modèle de langage et engin de recherche fait des merveilles. La possibilité de poser des questions supplémentaires en particulier permet de clarifier énormément de choses par la suite.

J’ aime aussi beaucoup la sobriété de l’ interface ainsi que la possibilité de revoir les dialogues passés et de les partager.

Il y a cependant un risque: celui de l’ affaibissement de l’ esprit critique. Si la réponse est convaincante il est tentant avec ce genre de modèle de ne pas vérifier les sources, ce qui veut dire devenir dépendant d’ une source unique d’ information avec tous les risques et biais que cela peut entraîner. C’ est peut-être l’ avantage un peu paradoxal des recherches « à l’ ancienne » : elles vous obligeaient à consulter plusieurs sites et à mettre en balance les différentes informations à l’ aune de la crédibilité des sources…

Un prix Nobel bien mérité pour AlphaFold 2

Le prix Nobel de chimie 2024 a été attribué à Demis Hassabis, PDG de Google Deepmind, conjointement avec le Dr. John Jumper également de Deepmind et le Professeur David Baker de l’Université de Washington.

Cette distinction a été attribuée pour leurs travaux sur le programme AlphaFold 2 développé par Google Deepmind, qui constitue une véritable révolution dans le domaine des sciences du vivant. Il s’ agit probablement de l’ application la plus prometteuse de l’ Intelligence Artificielle à ce jour. Le modèle, qui permet de prédire la structure tridimensionnelle des protéines à partir de leur séquence d’ acides aminés a résolu un problème de biochimie vieux de plus de cinquante ans. Le prix Nobel ne récompense pas seulement des années de recherches, mais démontre aussi comment l’ apprentissage machine et l’ IA influencent profondément notre compréhension des mécanismes du vivant.

Ce qui rend Alphafold aussi intéressant est sa capacité à faire des prédictions structurales précises de pratiquement n’ importe quelle protéine, une information exploitable par des milliers de chercheurs à travers le monde pour développer de nouveaux médicaments ou mieux comprendre des menaces sanitaires comme la résistance aux antibiotiques. De plus, l’ outil AlphaFold est librement accessible.

Les retombées potentielles d’ Alphafold sont certes nombreuses, mais comme il s’ agit d’ une application très spécifique, il faut se plonger dans le monde de la biologie moléculaire pour bien la comprendre…

Cet article s’ inscrit dans la continuité de mon article précédent intitulé « Les Machines Gracieuses » accessible ici. L’ essai de Dario Amodei, qui est docteur en neurosciences, imagine les transformations de notre société à moyen terme (5-10 ans) en se concentrant largement sur les progrès à attendre de l’ IA dans ses spécialités: la biologie et les neurosciences.

Présenter Alphafold est aussi une opportunité de sortir de l’ omniprésence médiatique des modèles de langage. L’ accessibilité et la popularité de l’ IA générative auprès du grand public a quelque peu éclipsé les progrès parallèles de l’ IA dite « prédictive » ces derniers temps. AlphaFold est une excellente occasion de rappeler que l’ IA prédictive, bien que plus spécialisée, recèle un potentiel énorme lui aussi.

1. Quelques mots de biochimie

Les protéines sont des molécules complexes qui sont responsables de la quasi-totalité des processus biologiques. Elles sont constituées de chaînes d’ acides aminés qui s’ emboîtent dans un ordre bien précis.

Ces chaînes pouvant être assez longues, le nombre de protéines théoriquement possibles est astronomique. Mais le mécanisme d’ assemblage n’ est pas aléatoire, loin de là : l’ être humain est constitué d’ environ 20.000 types de protéines, produites de manière calibrée en fonction de la cellule et de l’ organe.

L’ information décrivant la séquence de chaque protéine constituant nos protéines se trouve enregistrée dans notre ADN, sur lequel on retrouve environ 20.000 gènes, correspondant à nos 20.000 protéines, chaque gène encodant une protéine.

L’ ADN se compose d’ une longue suite de quatre bases différentes (dénommées en abrégé A,C, T et G). Un bloc de trois bases consécutives constitue un « codon », par exemple TTA, ATG etc… Chaque codon encode un acide aminé de la séquence formant la protéine. Un gène est donc une suite de bases ADN consécutives formant des codons qui seront ensuite traduits en une chaîne d’ acides aminés qui se replieront enfin pour former une protéine.

Petite complication, l’ ADN est d’ abord transcrit en ARN messager avant d’ être traduit en acides aminés, et la base T(hymine) est transformé en U(racile) au passsage. Par exemple, le codon TTA dans l’ ADN va devenir UUA dans l’ ARN messager qui encodera ensuite l’ acide aminé Leu(cine) dans le ribosome. La figure 2 montre comment passer du codon de l’ ARN messager à l’ acide aminé, en allant du centre vers l’ extérieur.

Figure 1 : De l’ ADN à la protéine, crédit : Nagwa
Figure 2: Table de traduction des codons de l’ ARN messager aux acides aminés, Credit : Mouagip

Il est fascinant de réaliser que ce mécanisme de transcription/traduction est identique -à quelques variations mineures près- pour l’ ensemble du vivant, depuis la bactérie jusqu’à l’ humain. La principale (la seule ?) distinction entre deux espèces provient de la différence entre les protéines produites et leur rôle.

Que ce mécanisme soit uniforme est un signe de l’ origine commune de l’ ensemble du vivant : si l’ on remonte suffisamment loin dans le temps, on aboutit à l’ organisme appelé LUCA, le dernier ancêtre commun universel à l’ ensemble de tous les êtres vivants actuels. Il est très probable que LUCA possédait déjà le mécanisme décrit ci-dessus expliquant son universalité. A noter que LUCA n’est en rien le premier organisme vivant, il résulte lui-même d’ un long processus évolutif sur la terre primitive. Mais tous les descendants des prédécesseurs de LUCA hormis ce dernier ont disparu…

Figure 3 : LUCA notre ancêtre commun (Last Universal Common Ancestor)

Les acides aminés étant les mêmes pour tous les organismes, l’ algorithme de prédiction de structure des protéines d’ Alphafold2 peut s’ appliquer à l’ ensemble du règne animal et végétal. Et l’ on retrouve d’ ailleurs d’ importantes similitudes entre les protéines à travers les espèces. Au plus les espèces sont proches au sens de la taxonomie, au plus les protéines sont semblables. Et l’ analyse des différences entre protéines jouant un rôle similaire à travers les espèces est une des sources d’ information utilisées par AlphaFold2 pour prédire la structure des protéines.

2. Le problème du repliement des protéines

Fort bien, nous savons maintenant comment sont stockées dans l’ ADN les séquences d’ acide aminé constituant les protéines. La découverte de ce code remonte au début des années 1960 et fait suite à la découverte de la structure en double hélice de l’ ADN en 1953.

Mais les chercheurs ont rapidement dû faire face à un autre problème : le rôle d’une protéine dépend de sa forme dans l’ espace. En effet, une fois créée dans le ribosome – la machine cellulaire qui transforme l’ ARN messager en séquence d’ acides aminés – la protéine va se replier selon un mécanisme extrêmment complexe faisant intervenir non seulement les attractions et/ou répulsions des atomes entre eux, mais aussi le rôle du milieu aqueux dans lequel plonge la chaîne d’ acide aminés, dont certaines parties sont hydrophiles et d’ autres hydrophobes. La protéine ne deviendra fonctionnelle qu’une fois son repliage achevé. Complication finale, certaines protéines s’ assemblent ensuite entre elles pour former des structures plus complexes appelées multimères. La figure 4 donne une idée des étapes du processus :

Figure 4 : Les étapes conceptuelles du pliage des protéines

Le problème du pliage des protéines est donc de savoir quelle forme géométrique finale adaptera une séquence donnée d’ acides aminés. Cela fait environ cinquante ans (depuis le début des années 1970) que les biochimistes butaient sur ce problème. Ce problème est tellement important qu ‘il a été appelé « la seconde moitié du code génétique » car sans cette information de structure, le rôle des protéines n’ est pas compréhensible.

En l’ absence d’une solution au problème du pliage des protéines, la seule alternative constituait à déterminer expérimentalement la forme de chaque protéine, une par une, par des techniques de cristallographie d’ abord et plus récemment de microscopie électronique. Mais cela restait un effort majeur, demandant plusieurs années de travail à un ou plusieurs chercheurs pour une seule protéine.

Au cours des cinquante dernières années, les laboratoires ont réussi à déterminer la structure d’ environ 220.000 protéines, qui sont regroupées dans la base de données mondiales des protéines PDB (Protein Databank) dont l’ instance européenne est accessible ici. Ce volume de données expérimentales laborieusement collecté au cours des dernières décennies a permis d’ entraîner AlphaFold.

3. Présentation d’ Alphafold

Alphafold utilise des techniques d’ intelligence artificielle pour prédire directement la structure finale (« pliée ») de la protéine à partir de la chaîne d’ acide aminés fournie en entrée. En d’ autres termes, AlphaFold2 ne s’ intéresse pas ni ne cherche à résoudre le processus de pliage sur lequel butaient les chercheurs. Il va au contraire, selon une approche typique du Machine Learning , chercher à prédire directement la forme finale de la protéine sur base de corrélation avec les structures connues qui lui sont présentées lors de l’entraînement du modèle, d’ où l’ importance de la base de données des 220.000 protéines existantes sans lequel rien n’ aurait été possible.

Une clarification : j’ ai parlé jusqu’ ici d’ Alphafold 2, publié en 2020, parce que c’ est ce modèle qui a reçu le prix Nobel 2024 mais Google Deepmind a publié en 2023 un nouveau modèle appelé AlphaFold3 qui est encore plus puissant et c’ est celui dont je vais vous présenter succinctement l’ architecture.

Lorsque l’ on présente une séquence d’ acides aminés à AlphaFold3, ce dernier va fonctionner en trois étapes. Il va tout d’ abord effectuer des recherches préparatoires pour localiser dans plusieurs bases de données la forme des protéines connues les plus proches ainsi que les séquences d’ acide aminés semblables dans d’ autres espèces. Ces données sont synthétisées sans deux ensembles distincts : la représentation par paire, qui décrit les positions et interactions relatives entre deux acides aminés de la chaîne, et la représentation d’ alignement multi-séquences (MSA) qui reprend un ensemble de séquences d’ acides aminés similaire à ce qui est recherché. Ces deux structures sont alors envoyées au second module.

Figure 5 : Architecture générale d’ Alphafold 3 (crédit : Eleana Simon & Jake Silberg)

Le second module contitue le coeur du système. Il s’ articule autour d’ un mécanisme d’ attention appelé « Pairformer » semblable à ce qui existe dans les modèles de langage. Ce mécanisme va enrichir l’ information en combinant les données contextuellement proches. Les deux structures (MSA et représentation par paires) sont retravaillées au cours de 48 étapes successives pour être finalement présentées à l’ entrée du module final.

Le module final va utiliser un algorithme de diffusion semblable aux générateurs d’ images pour itérer vers la structure géométrique finale sur base des informations fournies par le pairformer, la différence étant qu’ au lieu de générer des pixels que base d’ un texte, le modèle va générer une liste de positions tridimensionnelles pour chaque atome de la molécule sur base de la preprésentation par paires et de la MSA. Ce qui précède n’ est qu’ un très bref survol du mécanisme, si cela vous intéresse une description beaucoup plus détaillée mais restant accessible est disponible ici.

4. Potentiel pharmaceutique et thérapeutique

Répétons-le : le potentiel thérapeutique d’ Alphafold est très important. Google Deepmind ne s’y est pas trompé puisqu’il a lancé une spin-off appelée Isomorphic Labs qui travaille avec le secteur pharmaceutique pour développer de nouveaux médicaments.

La grande nouveauté d’ AlphaFold3 par rapport à Alphafold 2, c’ est qu’ il permet non seulement de prédire la structure des protéines, mais également leurs interactions avec d’ autres molécules comme l’ ADN ou de plus petites molécules appelées ligands. Or de nombreux médicaments ne sont rien d’ autre que des ligands qui vont modifier l’ action de certaines protéines en se liant avec elles. La possibilité de modéliser de telles interactions in silico devrait donc permettre d’ accélérer l’ identification de nouveaux médicaments potentiels.

Même logique pour les vaccins : pour créer un vaccin, il faut connaître la structure en 3D de l’ agent pathogène pour identifier les régions susceptibles d’ être reconnues par les anticorps de l’ organisme ce qui déclenchera le mécanisme de réponse immunitaire. Vacciner signifie introduire dans l’ organisme des molécules inoffensives présentant les mêmes structures moléculaires afin d’ apprendre au système immunitaire à les reconnaître à l’ avance. Or, avec Alphafold, il suffit de connaître la séquence génétique du virus (son code ADN) pour connaître sa forme tridimensionnelle, ce qui est nettement plus facile à déterminer.

Autre domaine d’ application: les maladies génétiques et les cancers. Il s’ agit cette fois de déterminer l’ impact d’ une variation dans la séquence d’ acides aminés sur la structure de la protéine et son fonctionnement. Cette protéine modifiée peut soit être héritée (maladie génétique) soit résulter de mutations (cancer) soit les deux. Il s’ agit d’ un domaine encore largement inexploré car la lourdeur des techniques traditionnelles rendait impossible l’ analyse du nombre énorme de variants possibles.

L’ idée est ici de prédire la dangerosité d’ un variant dont on connaît la séquence ADN (qui peut aisément être obtenue par séquencage). Pour ce faire, Google Deepmind développe un autre programme appelé AlphaMissense, une adaptation d’ Alphafold visant à catégoriser le risque introduit par un variant.

5. Le problème inverse : le design de protéines

Un point mérite d’ être soulevé ici : si Alphafold a largement résolu le problème « direct » de la prédiction de la structure des protéines à partir d’ une séquence d’ acides aminés, le problème inverse n’ est pas moins important. Le design de protéines consiste à partir d’ une structure spatiale désirée et à chercher la séquence d’ acides aminés correspondante afin de pouvoir la faire fabriquer en série par les cellules.

Résoudre le problème direct nous aide à comprendre le fonctionnement du vivant, mais résoudre le problème inverse ouvrirait une boîte de Pandore : la construction de virus pathogènes voire de cellules artificielles entrerait dans le champ du possible.

Le problème inverse n’ est pas résolu mais il existe une voie de contournement: utiliser un modèle direct comme Alphafold pour générer un très grand nombre de structures, les stocker, puis utiliser un système de recherche pour localiser la structure la plus proche de ce que l’ on cherche et en fournir la séquence.

C’est ce qu’a fait Google Deepmind en publiant les structures de 200 millions de protéines générées par Alphafold. En effet, si la prédiction de structure était difficile avant Aphafold, le problème du séquençage génétique est résolu depuis longtemps. Le nombre de séquences ADN connues est donc bien plus important que celui des structures de protéines. Google Deepmind a simplement utilisé son algorithme sur l’ensemble des séquences qui n’avaient pas encore été modélisées en 3D (soit 99.9% du total)….le résultat est accessible ici.

6. Risques

Alphafold 3 est accessible au public ici. Vous pouvez demander à visualiser la structure d’ une protéine après avoir fourni la séquence d’ acides aminés au format FASTA, et éventuellement ajouter d’ autres éléments en interaction : ADN, ARN, ligands…

Voici un exemple dans lequel j’ ai essayé de voir l’ interaction entre deux protéines, un segment d’ ARN et deux ions Zinc. Les couleurs correspondent au niveau de confiance du modèle comme indiqué sur la légende en haut de l’ image.

Figure 6 : Exemple d’ utilisation d’ Alphafold 3

Le modèle n’ est cependant pas open-source. Vous devez passer par les serveurs de Google Deepmind. Il y a une bonne raison à cela en plus de l’ impératif commercial : les virus sont eux aussi des assemblages de protéines. C’ est pourquoi le modèle bloque la prédiction structurales de certaines séquences suspectes.

Il existe cependant déjà un programme concurrent à Alphafold, appelé RoseTTAFold, qui est librement téléchargeable sur Github ici. Ses performance sont cependant inférieures à Alphafold.

Tant que ces modèles restent limités à la prédiction directe, le danger reste limité. Mais si le problème inverse venait à être résolu, le risque augmenterait considérablement…

7. Sources et références

Applications de l’ Intelligence Artificielle dans la Défense

Les progrès rapides de l’ Intelligence Artificielle dans le civil se reflètent dans le domaine militaire. Ces derniers temps, trois facteurs additionnels accélèrent encore l’ adoption de l’ IA par les forces armées.

Le premier est la guerre russo-ukrainienne. Ce conflit de grande ampleur entre deux puissances technologiques pousse les belligérants à innover sans cesse. L’ Ukraine notamment cherche à compenser son infériorité numérique relative par une innovation tous azimuths, qui s’ appuie en grande partie sur l’ utilisation à grande échelle de drones qui constituent des plateformes idéales pour l’ intelligence artificielle.

Le second, ce sont les progrès fulgurants de ces dernières années dans l’ IA « civile » à travers les modèles de langage et multimodaux qui peuplent l’ essentiel de mes articles, et qui trouvent des débouchés naturels dans les applications de défense….

Enfin, la rivalité géopolitique entre USA et Chine, qui se joue également dans le domaine technologique, constitue le troisième facteur, chacune des deux puissances considérant la maîtrise de l’ IA comme un avantage militaire majeur. Les manoeuvres américaines pour restreindre l’ accès par la Chine aux circuits intégrés de dernière génération, ainsi que les tentatives de cette dernière de substituer ces importations par une production indigène, sont au coeur de cette confrontation…

Plus généralement, la technologie est un acteur clé de l’ art militaire, pas seulement sur le champ de bataille mais bien dans toute la chaîne militaire.

Figure 1 : Axes de développement de l’ IA militaire

La figure 1 montre les quatre axes principaux de développment de l’ IA militaire, que nous allons maintenant analyser plus en détail.

1. Les drones et les armes offensives

Le conflit russo-ukrainien a révélé l’ importance des drones qui sont utilisés pour la première fois massivement dans un conflit. L’ Ukraine déclare pouvoir produire 150.000 drones par mois et 2 millions d’ ici la fin d’ année, avec 165 différents modèles déployés ou en développement. Ces drones, qui sont parfois munis d’ une charge explosive, causent beaucoup de dégâts par leur précision et leur maniabilité. Et vu leur vitesse (certains atteignent 150km/h) il est très difficile de leur échapper.

Ce sont pour l’ immense majorité des drones commerciaux ou leurs dérivés qui ne font pas appel à l’ intelligence articielle. Leur pilotage se fait par radiocommande ce qui les rend vulnérables au brouillage, et leurs opérateurs à la détection par radiogoniométrie. Par ailleurs, les deux camps ont mis en place des techniques de guerre électronique pour brouiller les fréquences utilisées par les adversaires, voire prendre le contrôle des drones ennemis ou encore depuis peu les abattre en combat aérien avec des drones anti-drone…

En outre, les cibles se trouvant en général au sol et à plusieurs kilomètres de distance des opérateurs, la trajectoire terminale vers la cible se fait à l’ aveugle à cause de la courbure de la terre (ils sont « sous l’ horizon » et il en résulte que la transmission VHF qui se fait en point-à-point est coupée).

Ces drones font donc l’ objet d’ importantes limitations et des solutions originales ont vu le jour comme un drone déroulant une longue bobine de fibre optique derrière lui pour remplacer la liaison radio. Mais ce type de solution introduit de nouveaux inconvénients et restera probablement anecdotique.

La solution qui semble la plus prometteuse à court terme est d’ introduire un système IA de reconnaissance d’ objet sur le drone afin d’ assurer au moins le guidage terminal. De telles solutions existent à un coût modique et un poids raisonnable. Un Raspberry Pi 5 muni d’une carte IA et d’une caméra coûtera environ 200 euros. Une étape suivante, sur laquelle travaille Eric Schmidt, l’ ancien PDG de Google, est de créer de tels drones utilisant un ciblage IA de manière industrielle. Ce projet, appelé White Stork, a été révélé au début de l’ année 2024.

En parallèle, les principales armées développent et testent des drones IA volant en essaim. Le vol en essaim signifie qu’ une escadrille de drones coordonne de manière autonome ses actions, déléguant des actions spécifiques à certains drones, comme la reconnaissance d’ une zone ou l’ attaque d’une cible. Au moins onze pays ont annoncé de tels programmes sur lesquels vous trouverez plus d’ informations ici.

Les développements IA au niveau des armes offensives vont bien sûr au-delà des drones, mais j’ ai choisi ces derniers car ils sont représentatifs du potentiel de l’IA pour des armes offensives, avec en prime le faible coût qui les rend déployables en nombre ainsi que l’ expérience collectée sur le champ de bataille qui en fera vraisemblablement des acteurs incontournables des conflits futurs.

2. Renseignements, Surveillance et Reconnaissance (ISR)

Mais si les drones et les armes offensives capturent l’ imagination, ce n’ est pas nécessairement là que l’ apport de l’IA est le plus important : la planification et la conduite des opérations militaires nécessitent la prise en compte d’ une multiplicité de facteurs à commencer par la connaissance du terrain et des dispositions de l’ adversaire. Les états-majors ont besoin d’ être nourris en permanence en informations de toutes sortes provenant du terrain pour pouvoir agir.

Ces activités sont reprises sous le terme d’ ISR ( en français : Renseignements, Surveillance et Reconnaissance). Le champ de bataille actuel est effectivement saturé de capteurs de toutes sortes : drones et avions de reconnaissance, imagerie satellite, informations provenant de sources humaines (espions et unités de reconnaissance), interception et décryptage des communications ennemies, analyse du spectre électromagnétique pour identifier et localiser les émetteurs et les radars, suivi du sentiment de la population civile sur les réseaux sociaux, localisation des téléphones mobiles…. le volume d’ informations à traiter est énorme et il n’ est pas envisagable de transmettre ces données brutes telles quelles aux états-majors qui seraient noyés sous la masse.

C’ est ici qu’ intervient l’ IA pour prétraiter ces informations, à travers des techniques comme la détection d’ objets ou la retranscription textuelle de données audio. Par exemple, les USA ont lancé le projet MAVEN en 2017 pour analyser le déluge d’ images provenant des drones de surveillance. Seuls les objets d’ intérêt (véhicules, armes…) sont alors pris en compte. Mais le système a ses limites et il n’ est pas toujours aisé de discriminer un combattant d’ un civil…

Un autre exemple intéressant est le système déployé par les Ukrainiens pour détecter et localiser les drones Shahid lancés par les Russes sur les villes ukrainiennes. Ce système s’ appuie sur 8000 téléphones mobiles disposés sur des mâts à travers l’ Ukraine et qui sont connectés en permanence vers un système central qui écoute les sons capturés par les micros. La signature audio de ces drones est alors isolée ce qui permet la localisation par triangulation entre les niveaux de bruit reçus par les mobiles les plus proches. Reste alors à la DCA à faire son oeuvre. Je trouve cela d’ une ingéniosité remarquable…

Pour l’ interception des communications vocales, l’ IA peut intervenir à plusieurs niveaux, tout d’ abord pour tenter de reconnaître la voix parmi une base de données de locuteurs, et ensuite pour retranscrire l’ audio en texte et enfin pour essayer de déterminer si le texte contient des informations pertinentes pour l’ analyste, un rôle taillé sur mesure pour les modèles de langage qui vont exceller dans cette tâche. L’ analyse des réseaux sociaux relève de la même logique.

Mais une fois que les points d’ intérêt ont été extraits dans chaque flux de données brutes, un nouveau défi apparaît : identifier les correspondances entre les différentes sources d’ information afin de réaliser une validation croisée : si l’ imagerie vous montre un radar à un endroit, est-ce confirmé par l’ analyse du spectre électromagnétique qui montre un émetteur à la bonne longeur d’onde au même endroit ? Si vous avez détecté des signaux provenant de téléphones mobiles depuis un bosquet, l’infrarouge thermique confirme-t’ il la présence de combattants ennemis ? Il faut être prudent car l’ ennemi cherche évidemment à brouiller les cartes en recourrant à la fois au camouflage et à des leurres (il y a même de faux F-16 gonflables grandeur nature, voyez ici ! ).

C’ est le rôle des Systèmes d’ Aide à la Décision (acronyme anglais : DSS) qui vont prendre le relais et fusionner les données provenant de différentes sources pour offrir une vue unifiée qui va ensuite servir de base à la partie décisionnelle du processus.

3. Les systèmes de commandement et de contrôle (C2)

Une fois l’ information collectée et validée, celle-ci sert à la définition des actions à entreprendre pour traiter au mieux la situation sur le terrain. C’ est le rôle des systèmes de commande et contrôle (C2, encore un acronyme, le monde de la défense en est très friand).

Traiter la situation sur le terrain est un euphémisme qui signifie souvent détruire les menaces ennemies identifiées. Et ici, la rapidité est un facteur essentiel. Or justement, l’ IA permet d’ accélérer les choses, soit en combinant plusieurs étapes en une (par exemple support à la décision et commandement), soit en organisant l’ opération d’ attaque en aval de la décision de l’ opérateur, qui devient parfois le maillon le plus lent de la chaîne, surtout si il doit demander confirmation à un supérieur.

Une bonne illustration de cette contrainte de temps est le tir d’ artillerie de contre-batterie dans lequel une batterie va tirer sur une batterie ennemie; la trajectoire des obus détectés par radar révèle inévitablement la position du tireur. Pour se protéger, les canons se déplacent et tirent continuellement sans jamais rester à la même place car chaque tir révèle leur position et les expose à une riposte. Et quand on sait qu’un obus de 155mm met environ 60 secondes pour atteindre sa cible à 20km de distance, on comprend qu’il s’agit d’ une course de vitesse de part et d’ autre….cette vidéo se passe de commentaires.

C’est ici qu’ intervient la notion sensible d’ autonomie léthale. En effet, l’ aboutissement de l’ impératif de rapidité suggérerait de laisser une IA planifier l’ action de destruction de bout en bout sans intervention humaine.

C’ est un sujet délicat, tout d’ abord parce que les différents pays n’ ont pas la même position sur ce sujet qui fait l’ objet d’ intenses débats aux Nations Unies, ensuite parce que des armes autonomes existent depuis très longtemps sans qu’ il n’ y ait besoin d’ une quelconque intelligence embarquée : une mine antipersonnel (voire marine) est en effet une arme autonome rudimentaire. Idem pour les munitions rôdeuses qui survolent le champ de bataille à la recherche de cibles d’ opportunité comme le Harop israélien.

Sujet complexe aussi parce que la notion d’ autonomie cause moins de controverses dans des situations défensives comme la défence aérienne, une domaine où le temps de réaction est extrêmement court. Un missile ballistique tactique possède une vitesse terminale supérieure à Mach 5 (Mach 7.5 pour un missile russe de type Iskander). Le temps de vol total de ce genre de missile de 500km de portée est de 5 minutes, et ils ne sont souvent détectables que pendant la seconde moitié du vol parabolique soit une à deux minutes avant l’ impact; ce délai est trop court pour donner l’ alerte et évacuer la zone visée. Et la fenêtre de temps pour lancer un missile antiaérien type Patriot est encore raccourcie par le temps nécessaire à l’ intercepteur pour rejoindre sa cible…

Si ce type d’ action « réactive » est à la portée technique des systèmes actuels, il est possible de voir plus loin et d’ imaginer un algorithme proposant des plans entiers d’ opérations à grande échelle pour décision par les états-majors. Dans un conflit à haute intensité où l’ environnement change très rapidement, il n’ y aura peut-être pas d’ autre solution, surtout face à un adversaire agissant de même manière.

La génération autonome de plans entiers de bataille est aujourd’ hui un domaine de recherche active. le DARPA est occupé à effectuer des développements en ce sens en particulier à travers le projet SCEPTER, sur lequel vous pourrez trouver plus d’ informations ici.

4. Logistique et fonctions de support

Je parlais plus haut de la difficulté de générer des plans de bataille complets. En voici un bel exemple : à tout moment d’ une opération, l’ ensemble des unités doit rester ravitaillé. Et c’ est loin d’ être simple : une armée moderne déployée nécessite une chaîne logistique énorme.

En effet, les unités sur le front consomment sans cesse munitions, carburant, nourriture et eau, pièces de rechange et matériel médical sans parler de tout le reste; de plus ce flux est bidirectionnel : prisonniers, blessés et morts, véhicules endommagés doivent être renvoyés du front vers l’ arrière.

Les quantités dont nous parlons sont énormes. Si un fantassin a besoin d’environ 20kg de provisions de tous types par jour, les besoins explosent pour une grande unité mécanisée. Une division blindée américaine (300 chars et 200 véhicules de combat d’infanterie) nécessite environ 7.500 tonnes de ravitaillement de tous types par jour soit 300 containers ! Je ne veux pas trop m’ éloigner de mon sujet donc si ce domaine vous intéresse, je vous conseille absolument le livre de Mike Martin How to Fight a War et en particulier le chapitre 2. Logistics. Vous y découvrirez le rôle vital des routes, des containers, des palettes et des camions-citernes dans la logistique militaire.

Comment l’ Intelligence Artificielle peut-elle supporter la logistique ?

De plusieurs manières. Tout d’ abord, il y a bien sûr la gestion intelligente des différents stocks. Cela n’ est pas vraiment une nouveauté.

Ensuite, la maintenance prédictive : à force de tirer, les canons s’ usent et doivent être remplacés. Et à force de voler, les avions ont besoin de nouvelles pièces de rechange. L’ approche traditionnelle s’ appelle maintenance préventive. Elle consiste à remplacer automatiquement la pièce après un certain nombre de tirs ou d’ heures de vol indépendamment de l’ état de la pièce. La maintenance prédictive va prendre en compte l’ état réel de la pièce sur base des informations de fonctionnement de cette dernière pour suggérer un remplacement au meilleur moment.

Enfin et bien sûr la conduite autonome et le déploiement de véhicules de toutes taille sans pilote pour acheminer le ravitaillement et évacuer les blessés. Ces véhicules peuvent être terrestres ou aériens pour les faibles charges (drones).

Il y a déjà pas mal d’ expérientations en ce sens, notamment dans le conflit russo-ukrainien. L’ Ukraine teste un véhicule autonome pour l’évacuation des blessés.

5. Conclusions

Si le tableau exposé semble inquiétant, il faut se rappeler qu’ il en a toujours été ainsi. Plusieurs développements asymétriques ont eu lieu depuis la Seconde Guerre Mondiale, à commencer par les armes nucléaires, puis les munitions de précision. Les USA appellent d’ ailleurs l’intelligence artificielle militaire le ‘troisième décalage’ (third offset) en référence aux deux précédents.

Je voudrais terminer par trois réflexions :

Tout d’ abord un éventuel avantage asymétrique conféré par l’ IA risque de ne pas être de longue durée vu que la plupart des technologies son connues et qu’ une grande part de la recherche et des découvertes se fait dans le secteur privé; Ceci me pousse à croire qu’ on va simplment se déplacer vers un nouvel équilibre.

Ensuite il faut garder la tête froide. Une arme autonome fiable utilisée sur le champ de bataille, malgré son côté terrifiant, sera probablement moins dangereuse pour les civils qu’un outil d’aide à la décision mal exploité par un opérateur validant trop facilement les propositions de bombardement d’ une ville suggérée par une IA.

Et en fin de compte, ce seront des humains qui décideront dans quels contexte et avec quelles règles d’ engagement ces systèmes seront utilisés. Et malheureusement, l’ humain ne vaut pas nécessairement mieux que la machine. Il suffit de se retourner vers notre passé, même très récent, pour en avoir la preuve.

Sources et références

L’ Intelligence Artificielle dans la recherche

Je suis très heureux de pouvoir écrire cet article, et ce pour deux raisons.

La première raison est que la recherche scientifique est un des domaines où l’ Intelligence Artificielle peut révolutionner notre société, en stimulant la productivité scientifique, en augmentant les capacités cognitives humaines et en accélérant le rythme des découvertes. L’ IA appliquée à la science et à la recherche s’ est développée à un rythme important ces dernières années: si les tendances actuelles se maintiennent, la probabilité que les découvertes scientifiques futures soient principalement dues aux applications et aux outils de l’ IA va augmenter de manière significative.

La seconde raison est plus personnelle: depuis que j’ ai commencé la rédaction de ce blog à la mi-2023, j’ ai quasi-exclusivement parlé de l’ IA générative vu l’ engouement général à son sujet; je constate maintenant que de nombreuses personnes semblent résumer l’ IA à l’ IA générative et à ChatGPT. La fascination de ces dernières techniques est, je pense, lié en grande partie à leur facilité d’ utilisation et à la tentation de l’ anthropomorphisme. Mais elle ne doit pas éclipser les autres techniques dont le potentiel est tout aussi impressionnant.

Rappelons que les techniques génératives sont asssez récentes et l’ Intelligence Artificielle contient de nombreuses autres techniques, dont une grande partie dont orientées vers la prédiction et la discrimination de données. Ce sont principalement ces techniques qui seront à l’ honneur dans cet article.

Dans le texte qui suit, je décrirai les trois principales manières dont l’ IA impacte dès aujourd’hui le processus de recherche. Si les deux approches sont de nature prédictive et concernent la recherche scientifique, la troisième est générative et s’ applique également aux sciences humaines.

Ce bref aperçu n’ a pas vocation à être exhaustif : l’ IA aide aussi les chercheurs dans d’ autres domaines comme l’ analyse des données et dans l’ automatisation de certaines tâches répétitives de laboratoire par exemple…

1. Problèmes de prédiction complexes

L’ utilisation la plus courante de l’ IA dans le domaine scientifique consiste à résoudre des problèmes complexes de prédiction, c’ est-à-dire à mettre en correspondance des données d’ entrée connues avec des données de sortie à prédire. L’ IA intervient typiquement pour la résolution de problèmes physiques pour lesquels la modélisation directe des équations régissant les phénomènes est trop complexe.

Deux magnifiques examples de cette approche nous sont données par la société Google Deepmind à travers la prédiction de la structure tridimensionnelle des protéines à partir de la séquence d’ ARN codante (AlphaFold 3), et la prédiction de nouvelles structures cristallines (GnoME). Les applications possibles de ces deux applications sont énormes, et je vais les décrire succinctement.

Le modèle IA appelé Graph Networks for Materials Exploration (GNoME) est conçu pour prédire les structures cristallines inorganiques, qui sont des arrangements répétitifs d’ atomes conférant aux matériaux des propriétés particulières – par exemple, la symétrie hexgonale d’ un flocon de neige est le résultat de la structure cristalline de la glace.

Illustration 1 : Prédiction de nouvelles structures cristallines

Jusqu’ à présent, nous ne connaissions qu’ environ 48 000 cristaux inorganiques possibles. GNoME a fait passer ce chiffre à plus de 2 millions, et bien que certaines de ces nouvelles structures puissent se décomposer en formes plus stables ou être impossibles à créer, plus de 700 de ces prédictions ont déjà été réalisées indépendamment en laboratoire. Il s’ agit notamment d’ un cristal de lithium et de magnésium semblable à un diamant, qui pourrait être utilisé dans des lasers de grande puissance, et d’ un supraconducteur de molybdène à basse température.

Les chercheurs de Deepmind ont maintenant mis à la disposition de la communauté académique l’ ensemble des données relatives aux structures cristallines prédites. Cela va accélérer la découverte de nouveaux matériaux et c’ est là tout l’ intérêt : par rapport à ce que contenaient les bases de données auparavant, il est possible d’augmenter la taille des données d’ un ordre de grandeur.

Ces nouvelles structures cristallines pourraient contribuer à révolutionner la science des matériaux, en offrant de nouveaux moyens de fabriquer de meilleures batteries, de meilleurs panneaux solaires, de meilleures puces électroniques et bien d’ autres technologies vitales. « Chaque fois que quelqu’ un veut améliorer sa technologie, cela passe inévitablement par l’ amélioration des matériaux », explique Ekin Dogus Cubuk de DeepMind. « Nous voulions simplement qu’ ils aient plus d’ options. »

Alphafold 3, également fruit des recherches de Google Deepmind, est une prouesse comparable dans le domaine des structures organiques : il s’ agit cette fois de prédire la forme tridimensionnelle des protéines en fonction de leur structure codante encodée sur un gène de l’ ADN qui est transformé en message envoyé au ribosome (via un ARN messager). Le ribosome, qui fait partie de la machinerie cellulaire, construit ensuite la protéine en enfilant une série d’ acides aminés sur une longue chaîne, et c’ est l’ ARN messager qui décrit la séquence des acides aminés dans la chaîne. Le problème est que la protéine se replie ensuite en trois dimensions et c’ est cette forme qui détermine son rôle biologique. Or, le mécanisme de repliement fait intervenir des interactions trop complexes pour être modélisées directement. La résolution de ce problème de repliement des protéines faisait l’ objet de recherches acharnées depuis plus d’ un demi-siècle.

Illustration 2 : Prédiction de la structure tridimensionnelle des protéines

C’ est précisément ce que fait Alphafold 3, qui peut non seulement prédire la structure d’ une protéine à partir de la séquence codante d’ ARN messager, mais également l’ interaction de cette dernière avec d’ autres molécules, ce qui constitue un outil incroyablement précieux pour la recherche de nouveaux médicaments ou vaccins… et, ici encore, les chercheurs de Deepmind on choisi de publier une base de données de 200 millions de structures tridimensionnelles de protéines prédites par Alphafold 3.

Alphafold 3 est tellement fascinant que je pense bien y consacrer un prochain article…

2. la paramétrisation des systèmes complexes

Une seconde application est le paramétrage optimal de systèmes complexes. Dans ce cas, des techniques telles que l’ apprentissage par renforcement peuvent être utilisées pour rechercher l’ ensemble optimal de paramètres qui maximisent ou minimisent une fonction objective spécifique ou produisent un résultat souhaité.

Quelle est la différence avec le point précédent ? Eh bien dans le cas précédent on partait d’ une cause (un ARN messager) pour en prédire la conséquence (la structure d’ une protéine). Ici, nous faisons le contraire : nous partons d’ un résultat désiré pour essayer d’ identifier une configuration de paramètres d’ entrée qui pourrait mener à ce résultat. Comme les algorithmes d’ IA prédictive travaillent sur base de corrélation et non de causation, ils peuvent travailler indifféremment dans les deux sens, contrairement aux lois de la Physique qui sont de nature causale et donc unidirectionnelle. Le prix à payer pour un lien corrélatif est l’ absence d’ explication, mais dans certains cas c’ est le résultat qui importe et non sa justification.

Un exemple récent concerne les tokamaks, ces réacteurs prototypes pour la fusion nucléaire. L’ IA a permis aux scientifiques de modéliser et de maintenir un plasma à haute température à l’ intérieur de la cuve du tokamak, un problème qui s’ était avéré très difficile à résoudre jusqu’ à présent: le plasma est contrôlé à travers une série de bobines générant des champs magnétiques qui doivent être réglés avec grande précision à tout instant si l’ on veut maintenir la stabilité du plasma. Le problème est si complexe à résoudre que les physiciens comparent cela à maintenir la forme d’une boule de « slime » (le plasma) avec des élastiques (les champs magnétiques)…

Illustration 3 : Contrôle du plasma de fusion dans un tokamak

Lors d’expériences menées au DIII-D National Fusion Facility de San Diego, des chercheurs américains ont récemment démontré que leur modèle, formé uniquement à partir de données expérimentales antérieures, pouvait prévoir jusqu’ à 300 millisecondes à l’ avance les instabilités potentielles du plasma. Ce délai s’ avère suffisant pour modifier certains paramètres de fonctionnement afin d’ éviter une déchirure dans les lignes de champ magnétique du plasma, perturbant son équilibre et ouvrant la porte à une fuite qui mettrait fin à la réaction.

Cette recherche ouvre la voie à un contrôle plus dynamique de la réaction de fusion que les approches actuelles et jette les bases de l’ utilisation de l’ intelligence artificielle pour résoudre un large éventail d’ instabilités du plasma, qui constituent depuis longtemps des obstacles à l’ obtention d’une réaction de fusion durable. L’ IA pourrait donc aider à lever un obstacle majeur dans le développement de la fusion nucléaire en tant que source d’ énergie non polluante et virtuellement illimitée…

3. L’ IA pour la recherche et la découverte bibliographiques

Une autre application essentielle de l’ IA est l’ automatisation du processus d’ examen de la littérature académique, qui peut être facilitée par des moteurs de recherche puissants basés sur les modèles de langage. Des plateformes telles qu’ Elicit et Perplexity fonctionnent grâce à une interface de type chatbot, permettant aux chercheurs d’ interagir dynamiquement avec la machine.

Le chercheur peut entamer une conversation pour rechercher des informations sur des recherches antérieures dans un certain domaine et recevoir un résumé des informations-clés sur ce domaine. Les outils les plus récents peuvent même se souvenir du contexte de la conversation, ce qui améliore la qualité de l’ échange entre l’ utilisateur et la machine.

Toujours dans le contexte de l’ analyse de la littérature universitaire, une application intéressante est la découverte basée sur la littérature, où l’ IA peut découvrir des associations implicites et cachées à partir d’ études existantes, ce qui donne lieu à des hypothèses intéressantes, surprenantes et non triviales qui valent la peine d’ être étudiées plus avant par les chercheurs.

Rappelons que les modèles de langage fonctionnent sur une base de création de la séquence linguistique la plus plausible. Ce mécanisme peut être source de créativité en combinant des concepts développés séparément dans la littérature, en identifiant des lacunes dans la littérature ou encore en proposant des variations originales dans les expériences existantes.

Afin d’illustrer ce propos, je voudrais reprendre une citation du Prof. Terence Tao, Professeur de Mathématiques à l’ UCLA et un des plus brillants mathématiciens vivant à ce jour :

L’ IA de niveau 2023 peut déjà donner des indications suggestives et des pistes prometteuses à un mathématicien en activité et participer activement au processus de prise de décision. Lorsqu’ elle sera intégrée à des outils tels que les vérificateurs de preuves formelles, la recherche sur Internet et les progiciels de mathématiques symboliques, je m’attends à ce que l’IA de niveau 2026, si elle est utilisée correctement, soit un co-auteur digne de confiance dans la recherche mathématique, et dans de nombreux autres domaines également.

Terence Tao, Professeur de Mathématiques à UCLA

Conclusion

Voilà. Je sais qu’ on entend souvent parler de l’ Intelligence Artificielle avec une connotation négative : pertes d’ emploi, risque de perte de contrôle, désinformation… mais cette perception pessimiste ne doit pas faire oublier l’ immense potentiel transformateur de cette technologie. Mon article précédent parlait d’ éducation, et cet article a parlé de recherche scientifique. Ces deux domaines sont notre plus grande promesse pour des lendemains meilleurs.

Il est parfois bon de rappeler que le verre à moitié vide est aussi à moitié plein.

Sources et références