L‘histoire du mois
Nous sommes souvent confrontés à une interrogation légitime : « L’Intelligence Artificielle montre-t-elle les caractéristiques d’une bulle boursière ? ». Pour apporter des éléments de réponse, nous nous penchons ce mois-ci sur la performance boursière remarquable de Nvidia depuis un peu plus d’un an et analysons les éléments fondamentaux et concrets qui, selon notre analyse, ont sous-tendu cette progression du cours de bourse.
LA PERFORMANCE BOURSIÈRE DE L’ACTION A ÉTÉ SPECTACULAIRE EN UN AN
Nvidia est un concepteur et producteur américain de micro-processeurs graphiques haute performance (souvent appelés « GPU », l’abréviation anglaise de « Graphic Processor Unit »). Le 31 décembre 2022, son action cotait 136$ à la bourse américaine. Au 26 février 2024, soit à peine plus d’un an plus tard, son cours était de 788$, soit une progression d’environ 480%.
NVIDIA FAIT DÉSORMAIS PARTIE DES PLUS GRANDS GÉANTS BOURSIERS MONDIAUX
Ce parcours boursier rarissime, voire unique pour une société de grande taille, a porté la capitalisation boursière de Nvidia à 1971 Mds$, à partir du niveau déjà respectable de 340 Mds$ fin 2022. Nvidia est désormais la 4ème plus grande entreprise cotée au monde, derrière seulement Microsoft (3042 Mds$), Apple (2803 Mds$) et la compagnie pétrolière Saudi Aramco (2052 Mds$). Nvidia ressort non seulement devant Amazon (1817 Mds$) et Alphabet, la maison-mère de Google (1749 Mds$) mais aussi très au-dessus de Meta (1229 Mds$ pour l’ex-Facebook) et Tesla (637 Mds$).
Au passage, il importe de noter que la composition de ce club des « méga capitalisations boursières » reflète à la fois l’importance prise par la Technologie dans nos vies et l’ultra-domination des Etats-Unis dans l’écosystème technologique.
LA PERFORMANCE BOURSIÈRE DE NVIDIA TIRE SON ORIGINE DES PROCESSEURS INFORMATIQUES UNIQUES QU’IL PRODUIT
Un bref rappel historique s’impose. Les processeurs de Nvidia ont été recherchés initialement par les « accros » aux jeux vidéo, avides de rapidité car les effets visuels réclament de grandes capacités de calcul de la part des composants électroniques des ordinateurs. Or, l’architecture particulière (dite « parallèle ») des puces de Nvidia permet cette puissance de calcul, plaçant le groupe comme l’un des plus performants de l’industrie des semi-conducteurs. Par la suite, les « mineurs » de bitcoins (et autres monnaies numériques) ont incorporé les puces de Nvidia dans leurs ordinateurs, pour les mêmes raisons de puissance.
LA PUISSANCE DES PROCESSEURS DE NVIDIA A RENDU LE GROUPE INCONTOURNABLE AUPRÈS DES ACTEURS DE L’INTELLIGENCE ARTIFICIELLE.
Pour entraîner (« training ») et pour utiliser (« l’inférence ») les Grands Modèles de Langage de l’IA (dont ChatGPT est le plus connu et qui permettent aux non-informaticiens d’interagir avec une IA) ont besoin de données, en quantité croissante car plus elles sont nombreuses à analyser, meilleure est la qualité des résultats générés par l’IA. Or, le besoin en capacité de calcul augmente avec la quantité de données à traiter, dans des proportions quasi-exponentielles. Nvidia a donc attiré l’intérêt des acteurs de l’IA, grâce à la puissance de ses processeurs. Cet attrait a même grandi avec la performance des GPUs de Nvidia : déjà dans le haut du panier, elle a progressé de manière spectaculaire ces dernières années. Selon le bureau d’étude Bernstein Research, la puissance de calcul des GPUs de Nvidia a ainsi été multipliée par 1000 en 10 ans : de 4 milliards d’opérations par seconde en 2012 pour la puce K20X à 4000 milliards en 2022 pour la puce H100.
NVIDIA BÉNÉFICIE D’UNE DEMANDE POUR SES PRODUITS EN VÉRITABLE EXPLOSION
Nvidia est devenu, pour l’IA, l’équivalent des vendeurs de pelles et de pioches de l’époque de la ruée vers l’or : ces fournisseurs, ayant vendu des outils indispensables à tous les prospecteurs, ont in fine gagné plus d’argent que les rares dénicheurs de pépites de métal jaune. En résumé (simpliste) : aujourd’hui sans les GPU à haute vitesse de calcul de Nvidia, pas d’IA.
Ces GPUs sont utilisés en très grandes quantités dans les serveurs qui constituent les « clouds », dans lesquels sont sauvegardées les données, indispensables à l’entraînement et à l’utilisation des modèles d’IA. Ces clouds peuvent être aussi bien publics (ex. les immenses centres d’hébergement que Microsoft, Amazon et Google en particulier ont créés pour stocker les données de leurs clients) que privés (ex. au sein des entreprises pour héberger leurs propres données). Et comme les grands acteurs de l’IA ci-dessus, clients de Nvidia, se livrent à une concurrence féroce pour imposer leurs modèles de langage, ils sont prêts à investir massivement en commandant des puces Nvidia en très grandes quantités, pour répondre à la forte et soudaine demande qu’eux-mêmes reçoivent de leurs clients.