Nvidia dévoile de nouvelles puces et des services d’IA

Temps de lecture :3 Minutes, 7 Secondes

Lors de la conférence GTC 2022, Nvidia a présenté des processeurs pour le traitement des tâches d’intelligence artificielle, ainsi qu’un certain nombre de services pour les développeurs.

Le PDG du géant de la technologie, Jensen Huang, a présenté une nouvelle génération de cartes graphiques GeForce RTX 40 Series. Les accélérateurs sont construits sur l’architecture Ada Lovelace et sont représentés par deux modèles : RTX 4090 et RTX 4080 dans deux modifications de mémoire.

Réduisez vos frais d’échanges
Les frais d’échanges peuvent représenter plusieurs centaines de dollars chaque année. Pour cette raison, les bons tradeurs cherchent à les réduire car ils peuvent impacter fortement leurs résultats. Vous aussi vous pouvez le faire grâce aux liens ci-dessous :

Les puces sont fabriquées à l’aide d’une technologie de processus de 4 nm et contiennent jusqu’à 76 milliards de transistors. Les principales caractéristiques de la nouvelle architecture sont la troisième génération de cœurs RT et la quatrième génération de cœurs tenseurs.

Comparaison de l’architecture Ada Lovelace avec ses prédécesseurs. Données : Nvidia.

La carte graphique GeForce RTX 4090 est équipée de 24 Go de mémoire GDDR6X. Selon Huang, l’accélérateur contient 16 384 cœurs CUDA et quatre fois les performances du RTX 3090.

La nouveauté apparaîtra en vente le 12 octobre au prix de 1599 $.

GeForce RTX 4090. Données : Nvidia.

GeForce RTX 4080 16 Go contient 9728 cœurs CUDA. La version plus jeune de 12 Go est équipée de 7680 cœurs CUDA.

Les deux cartes seront mises en vente en novembre pour 1 199 $ et 899 $, respectivement.

GeForce RTX 4080. Données : Nvidia.

Huang a annoncé une nouvelle version de l’upscaler DLSS 3 AI pour les jeux. Selon lui, dans certains projets, l’algorithme augmente FPS quatre fois sans perte de qualité et de fluidité de l’image.

DLSS 3 ne sera disponible que sur la série GeForce RTX 40.

Huang a également annoncé le début de la production de masse des puces de serveur Nvidia H100. Selon lui, les nouveaux accélérateurs sont 3,5 fois plus efficaces que leurs prédécesseurs. Cela vous permet de réduire le coût de possession des serveurs, de réduire le nombre de nœuds tout en maintenant le niveau de performance de l’IA.

Le chef d’entreprise a annoncé le système sur puce (SoC) Drive Thor pour les véhicules autonomes. Selon le communiqué, la plate-forme offrira des performances de 2000 téraflops.

Les premières voitures sur SoC Drive Thor n’apparaîtront pas avant 2025.

Nvidia a annoncé une plate-forme de service pour la création de grands modèles de langage. NeMo LLM est destiné à la génération et au résumé de texte, tandis que BioNeMo LLM est destiné à la prédiction de la structure des protéines, au développement de médicaments et à d’autres recherches médicales.

La société a également introduit sa propre plate-forme cloud Omniverse Cloud Services pour la création et la maintenance d’applications d’intelligence artificielle et de métaverse. La prestation comprend :

  • Omniverse Nucleus Cloud – une plate-forme pour créer des objets et des scènes 3D ;
  • Omniverse App Streaming est un service de streaming pour les applications utilisant des accélérateurs RTX ;
  • Omniverse Replicator – générateur de données synthétiques ;
  • Omniverse Farm est une plate-forme permettant d’exécuter plusieurs instances de cloud computing ;
  • NVIDIA Isaac Sim, une application de simulation robotique et de génération de données synthétiques ;
  • NVIDIA DRIVE Sim™ est une plate-forme de simulation pour exécuter des simulations de véhicules autonomes.

Certains services de plateforme cloud sont déjà disponibles pour les utilisateurs.

Rappelons qu’en mars, Nvidia a présenté une nouvelle génération de puces IA pour serveur H100 et Grace CPU Superchip.

En avril, le géant de la technologie a annoncé l’utilisation de l’intelligence artificielle pour le développement de GPU.

En septembre, le gouvernement américain a restreint l’exportation des puces Nvidia H100 vers la Russie et la Chine.

Abonnez-vous aux actualités de ForkLog sur Telegram : ForkLog AI – toutes les actualités du monde de l’IA !

Vous avez trouvé une erreur dans le texte ? Sélectionnez-le et appuyez sur CTRL + ENTRÉE

Voir l’article original sur forklog.com