H200이라 불리는 새로운 칩은 엔비디아의 현재 최상위 칩인 H100을 능가할 것입니다. 새로운 칩의 주요 업그레이드는 더 높은 대역폭의 메모리입니다. 이는 칩에서 가장 비싼 부분 중 하나이며, 데이터 처리 속도를 결정합니다.
엔비디아의 H200 칩은 대규모 인공지능 시스템을 처리할 것입니다.
엔비디아는 현재 AI 칩 시장을 독점하고 있으며, OpenAI의 ChatGPT 서비스와 인간과 유사한 반응을 생성하는 많은 AI 서비스에 칩을 공급하고 있습니다. 로이터에 따르면, 칩의 처리 요소에 더 높은 대역폭의 메모리와 더 빠른 연결을 추가하면 ChatGPT와 같은 서비스가 더 빠르게 대응할 수 있습니다.
H200은 이전 H100 칩의 80GB에서 141GB로 증가한 고대역폭 메모리를 탑재했습니다. 엔비디아는 새로운 칩에 사용되는 메모리 공급업체를 공개하지 않았지만, 마이크론 테크놀로지는 9월에 엔비디아의 공급업체가 되기 위해 노력하고 있다고 밝혔습니다.
엔비디아는 CoreWeave, Lambda, Vultr와 같은 전문 AI 클라우드 서비스 제공업체 외에도 Amazon Web Services, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure가 H200 칩을 활용하는 최초의 클라우드 서비스 제공업체가 될 것이라고 밝혔습니다.
마이크로소프트, AI 칩 출시
[광고_2]
소스 링크
댓글 (0)