Nvidia a présenté la dernière puce, une technologie pour accélérer le calcul de l’IA

Le logo de la société de technologie Nvidia vu à son siège social à Santa Clara, Californie, le 11 février 2015. REUTERS/Robert Galbraith

Inscrivez-vous maintenant pour un accès GRATUIT et illimité à Reuters.com

22 mars (Reuters) – Nvidia Corp (NVDA.O) a annoncé mardi plusieurs nouvelles puces et technologies censées accélérer le calcul d’algorithmes d’intelligence artificielle de plus en plus complexes, augmentant la concurrence avec les fabricants de puces rivaux en concurrence pour les entreprises de centres de données rentables.

La puce graphique (GPU) de Nvidia, qui a initialement contribué à piloter et à améliorer la qualité vidéo sur le marché des jeux, est devenue la puce dominante que les entreprises utilisent pour les charges de travail d’IA. Le dernier GPU, appelé H100, pourrait aider à réduire le temps de calcul de quelques semaines à quelques jours pour certains travaux impliquant la formation de modèles d’IA, a déclaré la société.

L’annonce a été faite lors de la conférence en ligne des développeurs d’IA de Nvidia.

Inscrivez-vous maintenant pour un accès GRATUIT et illimité à Reuters.com

“Les centres de données deviennent des usines d’IA – traitant et filtrant des données de haut niveau pour produire de l’intelligence”, a déclaré le PDG de Nvidia, Jensen Huang, dans un communiqué, qualifiant la puce H100 de “moteur” de l’infrastructure d’IA.

Les entreprises utilisent l’IA et l’apprentissage automatique pour tout, de la recommandation de la prochaine vidéo à regarder à la découverte de nouveaux médicaments, et la technologie devient de plus en plus un outil essentiel pour les entreprises.

Related Article:  L'ancien profil du FBI est devenu le titre de la Semaine de la science et de la technologie. Éducation locale

La puce H100 sera produite sur le processus avancé de quatre nanomètres de Taiwan Semiconductor Manufacturing Company (2330.TW) avec 80 milliards de transistors et sera disponible au troisième trimestre, a déclaré Nvidia.

Le H100 sera également utilisé pour construire le nouveau supercalculateur “Eos” de Nvidia, qui, selon Nvidia, sera le système d’IA le plus rapide au monde lorsqu’il commencera à fonctionner plus tard cette année.

Le parent de Facebook, Meta (FB.O), a annoncé en janvier qu’il construirait le supercalculateur d’IA le plus rapide au monde cette année et qu’il fonctionnerait à près de 5 exaflops. Nvidia a déclaré mardi que ses supercalculateurs fonctionneraient à plus de 18 exaflops.

La performance d’Exaflop est sa capacité à effectuer 1 quintillion – ou 1 000 000 000 000 000 000 – de calculs par seconde.

En plus de la puce GPU, Nvidia a introduit une nouvelle puce de processeur (CPU) appelée Grace CPU Superchip qui est basée sur la technologie Arm. Il s’agit de la première nouvelle puce de Nvidia basée sur l’architecture Arm annoncée depuis que l’accord de la société pour acheter Arm Ltd s’est effondré le mois dernier en raison d’obstacles réglementaires.

Le Grace CPU Superchip, qui sera disponible au cours du premier semestre de l’année prochaine, connecte deux puces CPU et se concentrera sur l’IA et d’autres tâches nécessitant un calcul intensif.

De plus en plus d’entreprises connectent des puces à l’aide d’une technologie qui permet un flux de données plus rapide entre elles. Plus tôt ce mois-ci Apple Inc a lancé la puce M1 Ultra qui connecte deux puces M1 Max. [nL2N2VB1DI]

Related Article:  Nike ouvre un "centre technologique" à Atlanta l'année prochaine

Nvidia a déclaré que les deux puces CPU sont connectées à l’aide de sa technologie NVLink-C2C, qui a également été annoncée mardi.

Les actions Nvidia ont augmenté de plus de 1% dans les échanges de midi.

Inscrivez-vous maintenant pour un accès GRATUIT et illimité à Reuters.com

Reportage de Jane Lanhee Lee, reportage supplémentaire de Joseph White; Montage par Bernard Orr

Nos normes : Principes de confiance de Thomson Reuters.

x