Après avoir fait le tour d’ horizon des acteurs dans le précédent article, j’ ai pensé qu’ il serait intéressant d’ expliquer un peu plus en détail la chaîne de valeur du secteur et de positionner chacun des acteurs à sa juste place. Ceci est également une occasion de parler d’ autres intervenants dont le nom est moins souvent évoqué tout simplement parce qu’ ils ne s’ adressent pas aux utilisateurs finaux.

Le secteur de l’ IA faisant partie du secteur de l’ industrie logicielle et on peut prendre pour point de départ une chaîne de valeur logicielle assez générique :

1. Applications orientées utilisateur : ce sont les produits qui sont accessibles aux utilisateurs finaux, comme le site web de chatGPT. Ceux-ci peuvent être accessibles sur le web ou via une interface utilisateur plus traditionnelle.

2. Modèles : Les modèles contiennent la logique et les algorithmes essentiels au coeur de l’ application. Ils sont souvent séparés des applications utilisateur et échangent des informations avec ces dernières via des interfaces de programmation (API). Les modèles reçoivent des demandes de traitement des applications utilisateur et renvoient le résultat du traitement. Dans une application de chat, c’ est assez simple à imaginer: l’ applicatif envoie votre prompt au modèle qui renvoie sa réponse à l’ applicatif.

3. Infrastructure : il s’ agit ici des sociétés qui mettent à disposition l’ infrastructure dématérialisée (cloud) pour faire fonctionner les deux couches supérieures. Cette infrastructure se comporte d’ éléments de connectivité réseau, de serveurs, de puissance de calcul, de mémoire et d’ équipements de stockage. Pour une société, le grand avantage du cloud est que l’ exploitation est payée à l’ utilisation au lieu de nécessiter un gros investissement initial. Ce mécanisme est aussi très flexible car la capacité de l’ infrastructure peut grandir en phase avec le succès de l’ application, et donc les coûts évolueront avec les revenus.

1. La chaîne de valeur de l’IA générative

Voyons maintenant comment cette chaîne de valeur s’ articule plus spécifiquement dans le cas de l’ IA générative :

Figure 1 : Chaîne de valeur de l’IA générative

Analysons maintenant les couches une à une.

2. La couche infrastructure

Commençons par la base. L’ exécution des modèles génératifs fait appel à beaucoup de puissance de calcul. Les fonderies de silicium produisent des circuits intégrés spécialisés dans les calculs vectoriels qui sont à la base des modèles génératifs. Une société domine le marché : Nvidia, qui fournit toute une famille de coprocesseurs graphiques dont les modèles les plus puissants (A100, H100) se vendent comme des petits pains et coûtent entre 10.000 et 30.000$ pièce ! Les différents acteurs de l’ IA générative se battent pour mettre la main sur ces processeurs dont la demande dépasse de loin l’ offre, d’ autant plus que le secteur des supercalculateurs en est également gros consommateur.

Le grand avantage de Nvidia est d’ avoir mis au point depuis de nombreuses années (et donc bien avant l’ engouement actuel pour l’ IA) un environnement de programmation de ses coprocesseurs, qui est parfaitement intégré dans les grandes bibliothèques de programmation d’ IA générative : JAX, Tensorflow ou encore Pytorch. Tout modèle défini au moyen de ces bibliothèques pourra être exécuté sur les coprocesseurs graphiques disponibles de manière quasi-transparente.

Si Nvidia est clairement l’ acteur dominant, il faut aussi citer son éternel rival AMD. Quant à Google, il a développé ses propres processeurs pour l’ IA (appelés TPU); Apple en fait de même avec sa gamme de processeurs Mx qui contiennent un coprocesseur neuronal intégré applelé neural engine; des rumeurs indiquent que Microsoft développe en secret son propre coprocesseur actuellement dénommé Athena. Ceci dans le but de s’ affranchir de la dépendance à Nvidia.

Parlons ensuite des fournisseurs de service dématérialisés (cloud). On y retrouve la plupart des géants de la tech avec des activités comme Amazon Web Services, Microsoft Azure, IBM Cloud ou encore Google Cloud Platform (GCP). Comme je l’ ai expliqué dans l’ introduction, ces derniers proposent aux entreprises informatiques une infrastructure dématérialisée, disponible et payable à la demande. Et cette infrastructure contient naturellement des serveurs munis des fameux coprocesseurs graphiques que les fournisseurs de modèles et d’ applications peuvent louer en fonction de leurs besoins. Et ceci explique pourquoi Google et Microsoft développent leurs propres coprocesseurs : pour les installer dans leurs propres datacenters et les proposer en location à leurs clients sans ête tributaire des livraisons de Nvidia.

3. Les modèles IA

Nous arrivons maintenant à la partie IA proprement dite : les modèles. Et ici, nous avons deux cas à distinguer : les modèles propriétaires et les modèles open-source.

Un modèle propriétaire est un modèle qui fonctionne en tant que boîte noire. Il est accessible de l’ extérieur mais vous n’ en connaissez pas le fonctionnement ou les paramètres et donc impossible de le dupliquer. La plupart des grands modèles généralistes actuels (chatGPT, Claude, Bard) sont de ce type. Ceci est avantageux pour les sociétés qui ont développé ces modèles puisqu’ il permet une monétisation facile en rendant l’ accès payant, ce qui leur permet d’ amortir leurs frais d’ entraînement et d’ exploitation du modèle dans le cloud.

L’ autre grand cas de figure est l’ approche open-source. Dans ce cas, la société qui développe le modèle publie les données nécessaires à son exploitation, soient son architecture et les paramètres du modèle. N’ importe qui peut alors louer une infrastructure cloud (voire acheter des serveurs) et faire tourner le modèle de manière autonome.

Ce sont les détails de la license open-source sous lequel est publié le modèle qui vont déterminer les limites permissibles de l’ exploitation de ce dernier. Est-ce que l’utilisation commerciale est autorisée ? Est-ce ce que la mise à disposition à des tiers est autorisée… ? En théorie, une licence purement open-source autorise toutes les utilisations légales du modèle mais la pratique montre que les créateurs de modèles IA open-source ont tendance à introduire des restrictions supplémentaires pour ne pas se retrouver en concurrence avec leur propre modèle…

La monétisation du modèle open-source par son créateur peut se faire par une exploitation directe, mais aussi indirectement grâce à la notoriété que lui confère la publication du modèle (surtout s’ il est performant) ainsi que des développements complémentaires qui seront réalisés gratuitement par la communauté sur le modèle (milieu académique, programmeurs open-source, autres sociétés…).

Au rang des principaux modèles open-source, on compte aujourd’ hui BLOOM, Llama (Meta), MPT (MosaicML), Mistral, Falcon et StableLM (StabilityAI).

Si les modèles les plus puissants sont aujourd’ hui propriétaires, le dynamique qui accompagne le développement des modèles open-source laisse à penser que la situation pourrait s’ inverser à l’ avenir.

4. Les applications utilisateur

Cette couche est relativement simple à expliquer. Il s’ agit des applications avec lesquelles vous interagissez, via un site web ou une app sur un smartphones. Il peut s’ agir d’ applications assez complexes même si, dans le cas des applications génératives, le traitement apporté par ces applications utilisateur est souvent assez faible et se limite à contextualiser le dialogue et le présenter dans une interface utilisateur conviviale. Notons que le site d’ OpenAI que vous utilisez pour accéder à chatGPT entre dans cette catégorie : il s’ agit d’ une interface assez simple qui va appeler le modèle chatGPT, la seule particularité étant ici que c’ est la même société qui déploie le modèle et l’ application utilisateur.

Néanmoins il est utile de bien identifier cette couche car même si elle peut paraître « légère » en terme de valeur ajoutée conceptuelle, elle possède une grande importance économique. De nombreuses start-ups n’ existent qu’ à travers un site ou une app de ce type, judicieusement positionnée vers un public spécifique, qui appellent des modèles développés par des tiers (comme openAI) via l’ interface de programmation.

Un dernier mot pour parler des applications intégrées. Il s’ agit de sociétés qui ont construit un ensemble monolithique reprenant à la fois l’ interface utilisateur et le modèle, mais sans que ce dernier soit accessible indépendamment via une API. C’ est le cas de Midjourney (images IA) ou de RunwayML (génération de vidéos).

5. Evolution

Cette description de la chaîne est appelée à évoluer, et on voit déjà plusieurs tendances s’ amorcer : si les grands modèles généralistes (Claude, GPT…) occupent aujourd’ hui le devant de la scène, ils risquent de se voir progressivement marginalisés au profit de modèles plus petits et plus spécialisés, mais capables de fonctionner localement sur l’ ordinateur ou le téléphone de l’ utilisateur ce qui est très avantageux en termes de confidentialité et de robustesse (pas besoin de réseau).

La disponibilité de modèles « fondationnels » en open-source facilite cette évolution puisque n’ importe qui peut partir d’ un de ces modèles et le spécialiser via un entraînement complémentaire du modèle appelé affinage.

Une autre inconnue est le passage à la multimodalité. Si le traitement d’ images et de séquences vidéo devient possible en temps réel, le champ applicatif explose avec une pléthore de nouvelles applications en conduite autonome, robotique, pilotage de drones, jeux vidéo, défense…

6. Notes et références