La Chine est-elle en train, au travers de ses investissements, de ses subventions, de prendre le contrôle du marché des puces matures ? Sous ce nom se cache toute une variété de composants ayant la seule particularité de ne pas être avancés, celles utilisées pour le calcul hautes performances. Elles …
La Chine est-elle en train, au travers de ses investissements, de ses subventions, de prendre le contrôle du marché des puces matures ? Sous ce nom se cache toute une variété de composants ayant la seule particularité de ne pas être avancés, celles utilisées pour le calcul hautes performances. Elles sont indispensables car les plus répandues dans les véhicules, les smartphones, systèmes d’armements, énergies renouvelables…
La Commission européenne souhaiterait s’assurer que la Chine, par sa politique, n’est pas en train d’accaparer cet immense marché. Le précédent des panneaux solaires est dans tous les esprits. Cette enquête serait envisagée dans un document de travail prévu pour les prochaines discussions du Trade and Technology Council (TTC), révèle Bloomberg. Il s’agit de négociations entre l’Union européenne (UE) et les États-Unis pour se coordonner autour des questions commerciales et technologiques.
Selon les extraits dévoilés, UE et États-Unis s’engagent à « collecter et à partager des informations non confidentielles et des informations commerciales sur les politiques et pratiques non marchandes ». Le texte mentionnerait aussi qu’ils « pourraient élaborer des mesures conjointes ou coopératives pour remédier aux effets de distorsion sur la chaîne d’approvisionnement mondiale des semi-conducteurs existants ».
L’Empire du Milieu n’est jamais directement cité, comme d’usage dans des documents diplomatiques, mais le doute n’est guère permis. Le pays occupe effectivement une place très honorable dans l’écosystème des puces matures. Il subventionne également massivement ses entreprises : c’est la mission du « big fund », le fonds d’investissement créé en 2014. Enfin, les tentatives de rachats de groupes européens ne sont pas un mystère.
Il ne s’agit pour le moment que d’un document de travail, qui pourrait être amené à évoluer. Pékin risque de dénoncer une énième tentative de Washington de bloquer ses accès aux puces. Côté Europe, les relations commerciales sont déjà tendues, elle risque de ne pas s’en voir facilitée.
« Tous les pays du monde doivent être vigilants et se protéger contre les nouvelles menaces sécuritaires créées par le gouvernement américain », voilà la réaction de l’Armée Populaire de Libération (APL), l’armée chinoise, après la révélation par Reuters de la construction d’un réseau de satellite espion par SpaceX. Un contrat a 1,8 milliard de dollars.
Starshield, le cœur de la relation entre SpaceX et l’administration américaine
L’agence National Reconnaissance Office (NRO) a été maintenue secrète jusqu’au début des années 90. Grâce au personnel de l’US Space Force, de la Central Intelligence Agency et d’autres agences gouvernementales, elles gèrent les satellites des États-Unis. Starshield, discrète unité commerciale de SpaceX, collabore avec elle.
Selon Reuters il est question de centaines de satellites, pouvant se comporter en essaim en orbite basse pour suivre une cible. L’agence de presse, qui rapporte avoir cinq sources concordantes, précise ne pas savoir si le programme est déjà fonctionnel ni si d’autres sociétés y ont participé.
La NRO a reconnu développer « le système spatial de renseignement, de surveillance et de reconnaissance le plus performant, le plus diversifié et le plus résilient que le monde ait jamais vu ». À la question de savoir si l’agence travaillait avec SpaceX, elle a répondu être associée à différentes agences, entreprises instituts de recherche et pays.
Le Wall Street Journal avait révélé quelques semaines plus tôt l’existence du contrat et son montant. Il est en cours depuis 2021 et aurait été précédé d’un autre, distinct, de 200 millions de dollars en 2020. Il s’agirait d’accord pour des prototypes ou des lancements de prototypes.
Une amitié de toujours, avec ses hauts et ses bas
Dès la naissance de SpaceX, en 2002, Elon Musk a collaboré avec l’armée et les renseignements américains. Récemment, le Pentagone a négocié directement avec le milliardaire pour que Starlink continue à être utilisé par l’armée ukrainienne.
Parmi les anciens directeurs de Starshield se trouve un ancien gradé de l’armée de l’air. Les offres d’emploi exigent des accréditations, une expérience au sein du ministère de la Défense ou dans le renseignement. L’unité se vend comme capable de fournir des solutions de communications sécurisées ou de transporter des capteurs.
En Chine, l’information a été passablement mal accueillie par la presse officielle et sur les réseaux sociaux. C’est sur Weibo, le X chinois, que l’un des comptes de l’APL a réagi. Selon le système de traduction automatique, il exhorte notamment « les entreprises américaines à ne pas aider un méchant à faire le mal ».
Chaque année, Nvidia organise sa conférence GTC, l’événement où sont annoncées ses dernières nouveautés et priorités pour les mois à venir. L’édition 2024, du 18 au 21 mars, ne déroge pas à la règle. L’an dernier, le spécialiste des semi-conducteurs faisait la part belle à l’intelligence artificielle (IA) générative, surfant sur l’engouement des entreprises.
Pas à pas, Nvidia guide les entreprises vers l’IA générative
Nvidia s’est imposé comme le leader des unités de traitement graphiques (GPU), très efficaces pour la formation et le fonctionnement de solutions d’IA. Nombreux sont ceux qui s’arrachent ces composants à prix d’or, mais la firme de Jensen Huang veut aller plus loin. Elle souhaite accompagner les entreprises dans leur transformation numérique.
Dans le cadre de la mise à jour d’AI Enterprise, sa suite logicielle regroupant toutes ses offres en lien avec l’IA générative, Nvidia permet aux entreprises de développer leur propre agent conversationnel. « Les plateformes actuellement utilisées par les entreprises reposent sur une mine d’or de données qui peuvent être transformées en copilotes d’IA générative », appuie Jensen Huang, PDG de Nvidia.
En parallèle, la société s’est penchée sur la phase d’inférence. Elle constitue l’essence même des IA génératives actuelles. Pour assister les développeurs dans cette phase, Nvidia lance NIM. « NVIDIA NIM a été conçu pour combler le fossé entre le monde complexe du développement de l’IA et les besoins opérationnels des entreprises », précise le groupe. Ce service propose aux développeurs des outils sécurisés, conformes aux normes de l’industrie, et des moteurs d’inférence optimisés.
Si ces services restent généralistes, Nvidia propose aussi des outils à destination de secteurs spécifiques : avec BioNeMo, le groupe vise à aider les chercheurs en pharmacie à développer des modèles optimisés pour la découverte de médicaments.
Avec AI Enterprise, Nvidia veut accompagner les sociétés de secteurs divers et variés dans leur adoption de l’IA, en fonction de leurs besoins. Illustration : Nvidia. Illustration : Nvidia.
Pour répondre à la forte demande en GPU, Nvidia met les bouchées doubles
En matière de composants électroniques, dans les prochains mois, les entreprises spécialisées dans l’IA pourront se procurer les très attendues H200. Amazon Web Services, Google Cloud, Microsoft Azure et Oracle se sont tous engagés à exploiter ce nouveau GPU dans leurs infrastructures. En 2025, ce sera au tour des puces X100 de voir le jour. Aucune précision n’a été apportée sur ses performances.
Niveau infrastructures, la firme dévoile son nouveau système DGX SuperPOD spécialement conçu pour les workflow d’IA. Afin de proposer une grande puissance de calcul pour supporter les dizaines de milliards de paramètres des grands modèles de langages, pas moins de 36 GPU Blackwell 200 (GB200) sont inclus dans ce DGX. Selon Nvidia, ces composants offrent « des performances jusqu’à 30 fois supérieures à celles du H100 pour les grandes charges de travail d’inférence de modèles de langage ».
Ce nouveau DGX fournit 11,5 exaflops de puissance de calcul, et 240 téraoctets de mémoire rapide. Illustration : Nvidia.
La firme de Jensen Huang au service de l’informatique quantique
Si l’informatique quantique est loin d’être sa priorité, Nvidia souhaite que ses composants puissent être un moteur des avancées dans le secteur. « L’informatique quantique représente la prochaine frontière révolutionnaire de l’informatique et il faudra les esprits les plus brillants du monde pour rapprocher encore un peu cet avenir », souligne Tim Costa, directeur de l’informatique quantique et du calcul haute performance chez Nvidia.
L’entreprise annonce que ses composants permettront d’alimenter le nouveau supercalculateur japonais ABCI-Q. En tout, 2 000 GPU H100 seront inclus dans la machine. Ce superordinateur, dont la construction est assurée par Fujitsu, sera installé à l’Institut national des sciences et technologies industrielles avancées (AIST) à Tokyo. Il sera déployé dès l’année prochaine.
Dans un autre registre, à l’image de ce qu’a pu proposer Intel ces derniers mois avec Quantum SDK, Nvidia dévoile un service cloud qui permet aux chercheurs et aux développeurs « de repousser les limites du quantique et de l’exploration informatique dans des domaines scientifiques clés, notamment la chimie, la biologie et la science des matériaux ». Quantum Cloud est basé sur une version quantique de CUDA, la plateforme de calcul parallèle et interface de programmation d’application présente dans le GPU de l’entreprise. Ainsi, les utilisateurs pourront concevoir et tester leurs applications quantiques dans le cloud.
De plus en plus d’entreprises cherchent à démocratiser l’accès à l’informatique quantique grâce à des simulateurs de machines quantiques. Illustration : Nvidia.
Nvidia se voit en pionnier de l’industrie 4.0
Depuis quelques années, Nvidia travaille sur le métavers. « Nous pensons que ces mondes virtuels seront l’élément qui permettra la prochaine ère d’innovation », déclarait il y a trois ans Richard Kerris, vice-président du développement de la plateforme Omniverse. Depuis, cette technologie est beaucoup moins à l’air du temps. Mais Nvidia concentre ses efforts sur l’aspect professionnel, en présentant Omniverse comme un espace de travail permettant de créer des jumeaux numériques réalistes et complexes.
La plateforme est mise à jour afin de donner une place prépondérante à l’intelligence artificielle générative. Les entreprises ont désormais la possibilité de former des agents d’IA pour simuler avec plus de réalisme, le déplacement de robots et d’humains virtuels dans un entrepôt ou une zone industrielle. Nouveauté non négligeable, Nvidia permet à ses utilisateurs de s’immerger dans l’environnement 3D qu’ils ont conçu s’ils disposent du Vision Pro, le casque de réalité mixte d’Apple. L’utilisateur d’Omniverse peut se glisser dans le jumeau numérique et interagir avec des objets présents dans le monde virtuel qu’il a imaginé.
Ici, un utilisateur d’Omniverse se sert de son casque Vision Pro pour sélectionner les composants du véhicule qu’il développe. Illustration : Nvidia.
Enfin, c’est dans le monde de l’automobile que Nvidia assure avoir fait une entrée fracassante. En septembre 2022, Nvidia dévoilait Drive Thor, un système sur puce (SoC) permettant de centraliser toutes les fonctions intelligentes d’un véhicule. Un an et demi plus tard, plusieurs grandes entreprises du secteur ont décidé d’alimenter leur flotte avec ce SoC. Nvidia présente la nouvelle génération de Drive Thor pour répondre aux envies des constructeurs qui cherchent à inclure l’IA générative dans leurs véhicules.
Avec toutes ces annonces et nouveautés, Nvidia veut confirmer sa belle année 2023 où elle est devenue un peu plus, un acteur incontournable du secteur de la tech. L’entreprise continue à faire des avancées sur ce qui a fait sa renommée, à savoir l’IA générative et les jeux vidéo. En parallèle, elle souhaite aller plus loin en touchant plusieurs domaines où peut apporter son expertise : robotique, santé, informatique quantique, jumeaux numériques et métaverse. La stratégie de Nvidia est claire, voyons désormais si elle portera ses fruits dans les prochaines années.
Fondée en 1993 avec l’ambition de révolutionner le jeu vidéo, Nvidia s’impose aujourd’hui comme l’un des acteurs les plus proéminents de l’intelligence artificielle (IA) générative. En un an, la société s’est hissée au sommet de la Bourse, suscitant une attente considérable pour chacun de ses nouveaux produits, tant pour le …
Fondée en 1993 avec l’ambition de révolutionner le jeu vidéo, Nvidia s’impose aujourd’hui comme l’un des acteurs les plus proéminents de l’intelligence artificielle (IA) générative. En un an, la société s’est hissée au sommet de la Bourse, suscitant une attente considérable pour chacun de ses nouveaux produits, tant pour le grand public que pour les entreprises. Pourtant, son parcours a été semé d’embûches, témoignage de la résilience de ses dirigeants.
Objectif : la puce « parfaite »
Au début des années 90, Jensen Huang, Chris Malachowsky et Curtis Priem, jeunes ingénieurs et amis, viennent tout juste de quitter leurs emplois chez LSI Logic et Sun Microsystems. Ils apprécient se retrouver autour d’un café, chez Denny’s. C’est dans cette modeste enseigne de diner que naît l’ambition de développer une puce capable d’adapter les graphiques à l’écran. Ils décident alors de fonder leur propre entreprise. Peinant à lui trouver un nom, ils s’entendent finalement sur « NV » pour Next Version, le nom attribué à tous leurs fichiers, et le mot latin Invidia, signifiant « envie » ou « jalousie ». En 1993, Nvidia est née.
À cette époque, les entreprises du secteur travaillent surtout sur les unités centrales de traitement (CPU), qui exécutent les instructions des programmes informatiques. Les trois acolytes, eux, voient plus loin.
À l’aube de la révolution du PC, ils prennent le pari de concentrer leurs efforts sur un processeur graphique, spécialement dédié aux jeux vidéo, un marché encore jeune. Un défi, tant les capacités graphiques et multimédias des ordinateurs de l’époque sont quasiment inexistantes.
Malgré une technologie de pointe pour l’époque, leur premier produit, NV1, est un échec. La puce est trop sophistiquée et trop onéreuse pour le marché grand public. La société repart de l’avant et se penche sur la NV2 à travers un partenariat de taille, conclu avec Sega. Nvidia est missionné pour accompagner la firme japonaise dans l’élaboration de sa prochaine console.
La NV1. Photographie : Wikimédia.
Une fois encore, la start-up bute. L’architecture des NV1 et NV2 diffère de tout ce qui est développé par la concurrence, condamnant la puce au flop commercial avant même son lancement. Ses dirigeants prennent alors une décision radicale : ils abandonnent leur architecture pour suivre les standards de l’industrie, et renoncent à leur collaboration avec Sega sur ce projet. Nvidia traverse une période difficile, l’ombre de la faillite plane sur ses opérations.
Au bord du précipice, Jensen Huang et ses collègues se donnent une dernière chance pour développer la puce « parfaite », indiquent-ils dans un podcast de Sequoia Capital. Mission quasi-impossible dans une industrie des semi-conducteurs des années 90 en pleine loi de Moore.
Après huit mois de travail acharné, les ingénieurs de Nvidia donnent vie, en 1997, au Riva 128. Le processeur révolutionne les graphismes sur ordinateur. Il s’écoule à 1 million d’unités en quatre mois seulement. L’entreprise est enfin lancée et peut sortir ses nouveaux produits à une cadence deux fois plus élevée que ses rivales. Elle devient inarrêtable.
Nvidia fait entrer le jeu vidéo dans une nouvelle ère
Deux ans plus tard, Nvidia donne vie au GeForce 256, considéré comme le premier processeur graphique (GPU) de l’Histoire. Celui-ci permet l’accélération informatique (d’où son surnom d’accélérateur), réalisant les tâches de manière plus efficiente qu’un simple CPU. La firme entre à Wall Street la même année. Avec sa technologie, Nvidia plonge le secteur des jeux vidéo dans une nouvelle ère, offrant des possibilités créatives inédites aux éditeurs. Le succès est tel qu’en 1999, Microsoft choisit GeForce pour alimenter son nouveau projet : une console de salon baptisée Xbox.
Durant la première moitié des années 2000, Nvidia enchaîne les partenariats de haut rang, de Sony à Blizzard, et écrase une concurrence peu armée. La société est alors un leader incontesté dans le domaine des graphiques 3D, mais l’explosion du marché du PC permet aussi à d’autres acteurs d’émerger. Elle se bat contre d’autres grands noms, tels qu’Intel ou AMD.
Consciente de la concurrence grandissante dans le jeu vidéo, l’entreprise imagine d’autres applications pour ses GPU. Elle lance l’architecture CUDA en 2006 et l’intègre à ses cartes graphiques. Aujourd’hui encore, les grands modèles de langage (LLM) comme GPT-4 fonctionnent grâce à cette technologie. Elle permet, entre autres, un traitement parallèle sur les GPU, ce qui se traduit par des améliorations significatives en termes de vitesse et de performances pour les tâches d’apprentissage et d’inférence.
À l’époque, de nombreux professionnels évoluant dans d’autres filières comme la recherche commencent à exploiter les GeForce de Nvidia pour la recherche ou la simulation. C’est le début d’un changement de paradigme pour l’entreprise.
Le pari risqué de l’IA
C’est lors d’une visite à Taïwan, son pays d’origine, que Jensen Huang prend pleinement conscience du potentiel multisecteurs de ses GPU. Un chercheur lui présente alors un système composé de plusieurs cartes GeForce lui permettant de réaliser des expériences d’apprentissage profond (deep learning). L’IA générative est basée sur cette technique. Mais à la fin des années 2000, bien que le concept d’IA existe depuis des années, la technologie n’en est qu’à ses balbutiements, tout comme les méthodes d’apprentissage. Les dispositifs de Nvidia changent la donne. Pour la première fois, les ingénieurs sont en capacité d’entraîner leurs réseaux de neurones.
Ils sont toujours plus nombreux à se tourner vers les GPU de la société. Pour la seconde fois de son histoire, la firme se confronte à une situation hautement périlleuse. Va-t-elle s’aventurer sur un marché naissant, dont la direction, bien que lucrative, s’avère encore imprévisible ? Huang a le goût du risque, et décide, au début des années 2010, d’engager Nvidia dans l’informatique pour l’IA. C’est un tournant majeur pour le constructeur.
Afin de mettre toutes les chances de son côté, le PDG échange avec des scientifiques du monde entier, écoute leurs attentes pour améliorer ses systèmes. Nvidia ne prend pleinement conscience de la portée de sa décision qu’au début des années 2020, quand les opérateurs de centres de données, les fournisseurs de cloud et les entreprises spécialisées dans l’IA se jettent sur ses processeurs.
La consécration
Le lancement de ChatGPT à la fin 2022 propulse Nvidia sur le devant de la scène. Depuis quelque temps, son nom est surtout associé aux cryptomonnaies, ses cartes graphiques étant si performantes qu’elles sont exploitées pour le minage. L’entreprise décide d’ailleurs de hausser le ton face à la situation, et exhorte les mineurs à ne plus utiliser ses GPU, estimant que la pratique n’apporte rien de positif à la société. Le produit d’OpenAI marque le départ d’une course effrénée de l’IA générative, dans laquelle s’affrontent jeunes start-up et géants de la Silicon Valley.
Une aubaine pour la société. Les acteurs du secteur s’arrachent ses GPU H100 et A100, vendus à des sommes astronomiques. Et pour cause, ce sont les seuls capables de faire tourner les très énergivores LLM. Elle a aujourd’hui la mainmise sur près de 80 % du marché. En un an seulement, Nvidia a quadruplé ses revenus, et vu sa capitalisation boursière surpasser celles de Google et d’Amazon. Elle en profite pour investir massivement, en injectant des fonds dans de nombreuses start-up exploitant l’IA. De cette manière, elle s’assure aussi que ces entreprises se procurent les puces dont elles ont besoin dans ses propres stocks plutôt que chez la concurrence.
Le cours de l’action de Nvidia ne cesse d’augmenter.
Mais sa dominance sera un jour remise en question. Meta, Amazon, Microsoft, OpenAI sont insatisfaits de leur dépendance à Nvidia, et s’affairent déjà à concevoir leurs propres puces.
L’influence de Nvidia demeure toutefois incontestable, et sa réussite devrait lui permettre d’aller encore plus loin dans l’innovation. Elle est plus que jamais armée pour l’avenir. Médecine, recherche scientifique, automobile, métavers, jumeaux numériques… Sa technologie ouvre la voie à de nouvelles applications dans divers domaines, bien au-delà de l’IA.
Plus d’une dizaine de pays d’Afrique de l’Ouest et centrale subissent encore de graves difficultés d’accès à Internet. Une panne en chaîne de plusieurs câbles sous-marins tôt dans la matinée du 14 mars est en cause.
La coupure d’un câble sous-marin au large de l’Afrique est confirmée
L’entreprise d’infrastructure numérique MainOne a confirmé il y a quelques heures une panne « due à un incident externe ayant entraîné une coupure de notre système de câble sous-marin, dans l’océan Atlantique entre le Sénégal et la Côte d’Ivoire ». Cela confirme un communiqué des autorités nigériennes.
Crédit : Telegeography
Les accidents abîmant les quelque 400 câbles sous-marins par lesquels transitent plus de 95 % des données mondiales ne sont pas rares. Dans une précédente interview accordée à Siècle Digital, Camille Morel, chercheuse associée à l’Institut d’études de stratégie et de défense, spécialiste de la géopolitique des câbles sous-marins rapportait qu’on les estimait à une centaine par an. L’ancre d’un navire ou un glissement de terrain sous-marin sont souvent en cause.
Il existe généralement une redondance des câbles pour diluer l’impact d’un tel événement. Cependant, dans le cas présent, l’organisation Netblocks, qui recense les coupures Internet à travers le monde, a avancé des défaillances sur quatre câbles en même temps : MainOne donc, mais aussi West Africa Cable System (WACS), South Atlantic 3 (SAT-3) et Africa Coast to Europe (ACE) sea cables.
Relayant les agences AP et AFP, Le Monde émet l’hypothèse que le trafic a été redirigé après la coupure d’un câble, mais que cela pourrait avoir entraîné un enchaînement de problèmes techniques sur les autres infrastructures. Cela reste à confirmer.
Une panne qui pourrait durer
Selon les données Netblocks publiées dans la nuit sept pays sont encore durement affectés. Il s’agit du Libéria, du Ghana, du Bénin, du Burkina Faso, de la Mauritanie, du Togo et de la Côte d’Ivoire. Ce dernier est le plus durement affecté, seuls 3 % des Ivoiriens avaient accès à Internet dans la nuit. Deux des trois opérateurs du pays sont très fortement perturbés. Le gouvernement a fait savoir à l’AFP qu’une cellule de crise a été ouverte. D’autres pays sont touchés ou l’ont été à un degré moindre comme le Cameroun, le Nigéria, la Namibie ou l’Afrique du Sud.
⚠️ Update: Metrics show the West and Central #Africa telecoms outage is ongoing, with further declines in connectivity observed to multiple countries through the day; the incident is attributed to cable damage impacting the WACS, MainOne, SAT3 and ACE subsea fiber networks 📉 pic.twitter.com/UW36sKay6J
MainOne assure de son côté tout faire pour mitiger l’impact de la coupure de son câble. Elle a promis que « en parallèle des mesures ont été prises pour mobiliser un navire afin de réparer rapidement le câble en haute mer ». Selon Bloomberg la panne qui touche des millions d’usagers pourrait durer plusieurs semaines.