ODDO BHF AM est convaincu que nous sommes en train d’assister à l’émergence rapide d’un marché considérable provenant de la génération de contenus par l’Intelligence Artificielle (désormais connue sous son nom anglais « Generative AI »). Cette attente fiévreuse repose notamment sur deux observations. Tout d’abord, jamais une application informatique n’a crû aussi vite que ChatGPT dans l’histoire, preuve des efforts simultanés (et souvent concurrents) de la part de nombreux acteurs pour se positionner et préempter des parts de marché. De plus, l’existence actuelle d’un écosystème et d’infrastructures rend facile le déploiement rapide de nouveaux usages et d’initiatives innovantes fondés sur le Generative AI. Il est donc possible d’anticiper en particulier une automatisation, potentiellement considérable, de nombreuses tâches réalisées aujourd’hui par les « cols blancs ». Un nombre incalculable d’entreprises, partout dans le monde, se lanceront dans cette voie et intègreront le Generative AI. Il y va en effet de leur obligation fiduciaire (elles devront mettre au service de leurs clients l’efficience accrue que l’IA apporte), de leur responsabilité sociétale (plus d’efficience signifie une moindre consommation de ressources) et, bien sûr, de leur volonté de survivre (ne pas se laisser dépasser par leurs concurrents plus audacieux en matière d’intégration de l’IA).
ODDO BHF AM souhaite donc consacrer ce dossier thématique à un panorama actualisé des acteurs les plus impliqués dans le Generative AI, en vue d’identifier les possibles gagnants et les perdants potentiels que cette technologie peut consacrer.
LES FOURNISSEURS DE PELLES ET DE PIOCHES AVANT TOUT
« Pendant la ruée vers l’or, ce ne sont pas les chercheurs d’or qui se sont le plus enrichis, mais les vendeurs de pelles et de pioches. »
Cette citation a servi de boussole plusieurs fois dans l’histoire récente des ruptures technologiques. Cette fois encore, elle pourrait constituer un précepte maître. En effet, le Generative AI et les modèles de langage sur lesquels il est fondé requièrent des investissements majeurs. Il est donc essentiel de comprendre les segments-clés d’infrastructure, sur laquelle le Generative AI va s’ancrer, afin d’identifier leurs « fournisseurs de pelles et de pioches » respectifs, qui vont bénéficier de cette puissante vague :
- Le Cloud computing 2.0 : l’infrastructure mondiale des réseaux de serveurs informatiques distants, communément appelée « cloud computing », n’a pas attendu ChatGPT pour connaître une croissance forte, régulière et ininterrompue. Elle n’en aurait pas eu besoin au demeurant, car la migration des systèmes informatiques des entreprises vers le cloud public, combinée à des besoins croissants d’infrastructures pour traiter l’explosion des données générées par le trafic Internet étaient déjà des moteurs puissants. Nous sommes convaincus pourtant que l’apparition d’outils de Generative AI (et des modèles de langage qui les sous-tendent, dotés chacun de centaines de milliard de paramètres) change la donne. Elle représente une manne, supplémentaire mais surtout d’une toute autre échelle, pour les fournisseurs de cloud public. Cela concerne au premier chef les trois acteurs dominant ce marché dans le monde : Amazon Web Services, Microsoft Azure et Google Cloud. Cette brutale accélération des besoins et des services ouvre la voie au stade 2.0 du cloud computing.
- Les puces de l’intelligence artificielle : Nvidia, acteur ultra-dominant. Le fabricant américain de processeurs graphiques haute performance apparaît aujourd’hui comme le grand gagnant du Generative AI. La progression récente du cours de bourse le prouve. Cette position aujourd’hui incontournable repose sur la puissance de calcul inégalée des puces de Nvidia, conséquence de leurs caractéristiques techniques uniques (en particulier leur « parallélisation ») ; mais aussi de l’écosystème hardware et software unique fourni à ses clients par Nvidia. Ces puces et cet écosystème sont de facto un standard pour l’IA. Ainsi, Nvidia, dont les puces fournissent 80% de la puissance exigée par le Generative AI, est actuellement le seul fabricant de puces capable de répondre à son appétit d’ogre.
- Or, cette demande est en croissance structurelle. Pour preuve :
- Les modèles de langage tels que ChatGPT requièrent déjà, pour les développer, des puissances de calcul phénoménales. Ils doivent en effet, comme des sportifs de haut niveau, être entraînés (on parle communément de « training »), c’est-à-dire nourris et testés via des milliards d’exemples et de situations. Or, la puissance de calcul nécessaire croît de manière exponentielle avec chaque nouvelle génération de modèle de langage ;
- Une requête sur ChatGPT (une « inférence ») requiert environ 4 fois plus de puissance de calcul qu’une recherche sur Internet via Google;
Rappelons qu’en 1971 le fondateur d’Intel prédisait que la puissance des micro-processeurs allait doubler tous les deux ans. Cinquante ans après cette « loi de Moore » était toujours valide ! Les besoins croissants de capacité de calcul de l’IA s’apparentent à une nouvelle version de cette célèbre loi, au profit principalement de Nvidia pour le moment.
D’autres acteurs des semiconducteurs sont toutefois concernés également par cette forte croissance des capacités de calcul :
- Marvell et AMD : pour leur présence sur le segment des puces pour datacenters
- Marvell (à nouveau) et Broadcom : pour leur leadership dans les puces de type ASIC (des circuits intégrés dédiés à des applications spécifiques), telles que la TPU de Google (codésignée parGoogle et Broadcom).
- Parmi les acteurs dans la chaîne de valeur des puces de calcul, citons dans l’aval le taïwanais TSMC (pour ses capacités de fabrication du plus haut niveau) et dans l’amont les fabricants de mémoires Samsung Electronics, SK Hynix ou Micron (dont les mémoires DRAM à bande passante élevée sont des sous-composants des puces les plus élaborées de Nvidia). Rappelons enfin qu’un Serveur d’intelligence artificielle requiert 2 à 3 fois plus de Mémoires DRAM qu’un Serveur classique.
- Les équipements de réseaux à haute performance : nécessaires pour diffuser le Generative AI, il s’agit ici de routeurs ou de composants optiques. Des sociétés comme Arista, Cisco ou Juniper (pour les équipements réseaux) mais aussi Coherent ou Lumentum (pour la partie optique) apparaissent bien placées.
MICROSOFT : UNE PERSPECTIVE CRÉDIBLE DE VOIR L’INTELLIGENCE ARTIFICIELLE SE DIFFUSER DANS UNE GRANDE PARTIE DE L’OFFRE LOGICIELLE
Après 1Md$ au lancement, Microsoft va réinvestir dans les prochaines semaines 10Md$ dans Open AI (la société fondatrice de ChatGPT). Ce faisant, Microsoft a clairement pris les devants et devrait être en mesure de déployer la stratégie suivante :
- Intégrer ChatGPT dans son moteur de recherche Bing : le but visé est de récupérer une partie de la manne dont bénéficie aujourd’hui Google. (pour chaque pourcent de part de marché pris à Google, c’est 2 Milliards de recettes publicitaires en plus pour Microsoft). Google profite en effet de sa part de marché, quasi-monopolistique donc ultra-rentable, dans l’activité de recherche sur Internet (« search »). Les gains immédiats de Microsoft devraient selon nous rester modérés, mais pourraient conduire à une certaine pression sur la marge brute de cette activité chez Google (du fait des coûts de training puis d’inférence du Generative AI).
- Déployer des modules d’intelligence artificielle dans une grande partie de son offre pour les entreprises : la notion de « co-pilote », inhérente au Generative AI, pourrait enrichir des pans entiers de l’offre Microsoft (vidéo conférences Teams de type « Premium », suite logicielle Office magnifiée par l’IA, etc.). Cela pourrait aussi s’étendre à l’outil « Github co-pilot », destiné aujourd’hui aux développeurs informatiques.
- Doper la croissance d’Azure, sa division de cloud public : déjà la plus puissante du marché en termes de capacités de calcul, Azure pourrait profiter des volumes traités par ChatGPT, sans parler de ceux des autres plateformes de Generative AI à venir prochainement (ex. plateformes verticalisées par industrie ou au contraire généralistes).
- Monétiser sa participation dans Open AI : cette société n’ayant peut-être pas encore vu la fin de sa revalorisation, le trésor de guerre que Microsoft pourrait récupérer pourrait s’avérer colossal in fine.
QUELLES AUTRES SOCIÉTÉS TECHNOLOGIQUES, POUR LESQUELLES LE GENERATIVE AI POURRAIT CONSTITUER UNE MENACE AUTANT QU’UNE OPPORTUNITÉ ?…
Il est trop tôt pour porter un jugement définitif sur les perdants certains. Pour autant, les sociétés suivantes ont de réels défis à affronter :
- Google : la nouvelle concurrence de Bing (développé par Microsoft) menace la part de marché ultra-dominante de Google dans la recherche sur Internet (son cœur de métier). Ce risque est à relativiser selon nous. Par contre, celui lié à la baisse de la rentabilité de cette activité (du fait des investissements induits pour contrer Bing) est réel.
- Les éditeurs de création de contenus (ex. Adobe ou Canva) : ceux-ci pourraient voir une partie de leurs fonctionnalités cannibalisées par les nouveaux modules de Generative AI qui pourraient être intégrés dans les suites logicielles de concurrents plus généralistes (ex. la suite Office de Microsoft). De manière générale, les métiers liés à la création et au design devraient être bouleversés par les contenus créés par le Generative AI, en particulier les images.
- Les éditeurs de solutions « low code » / « no code » : pour les éditeurs de logiciels comme Github, Gitlab ou Atlassian, le Generative AI représente à la fois un puissant accélérateur de productivité pour leur offre existante (c’est l’Intelligence Artificielle qui génère les lignes de code des programmes informatiques) et une menace, via l’abaissement des barrières à l’entrée au profit de nouveaux entrants.
- Les éditeurs d’outils de conception de semiconducteurs : des entreprises comme Cadence, Synopsys, Mentor ou ARM voient avec l’IA leur cœur de métier doté désormais d’outils révolutionnaires. De facto, cela rend l’intégration verticale des fonctions de conception et de vérification par leurs clients (Nvidia, Apple, Tesla pour n’en citer que trois) plus facile techniquement.