La nouvelle puce, baptisée H200, surpassera la puce phare actuelle de Nvidia, la H100. Sa principale amélioration réside dans une mémoire à bande passante plus élevée, l'un des composants les plus coûteux de la puce et qui détermine sa vitesse de traitement des données.
La puce H200 de Nvidia gérera des systèmes d'intelligence artificielle plus grands
Nvidia détient actuellement le monopole du marché des puces d'IA, fournissant des puces au service ChatGPT d'OpenAI et à plusieurs services d'IA générant des réponses de type humain. L'ajout de mémoire à large bande passante et de connexions plus rapides aux éléments de traitement de la puce permet à des services comme ChatGPT de réagir plus rapidement, selon Reuters.
Le H200 dispose de 141 gigaoctets (Go) de mémoire à large bande passante, contre 80 Go pour la précédente puce H100. Nvidia n'a pas révélé le fournisseur de mémoire de la nouvelle puce, mais Micron Technology a annoncé en septembre travailler pour devenir fournisseur de Nvidia.
Nvidia a également révélé qu'Amazon Web Services, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seront les premiers fournisseurs de services cloud à exploiter la puce H200, en plus des fournisseurs de services cloud d'IA professionnels tels que CoreWeave, Lambda et Vultr.
Microsoft lance une puce IA
Lien source
Comment (0)