엔비디아(NVDA), 차세대 AI칩 ‘H200’ 공개…"출력 속도 H100 2배"
엔비디아(NVDA), 차세대 AI칩 ‘H200’ 공개…"출력 속도 H100 2배"
  • 허준범 기자
  • 승인 2023.11.14 13:56
  • 최종수정 2023.11.14 13:56
  • 댓글 0
이 기사를 공유합니다

사진=엔비디아
사진=엔비디아

[인포스탁데일리=허준범 기자] 엔비디아는 차세대 AI칩 HGX H200을 출시한다고 14일 밝혔다.

이 플랫폼은 엔비디아 호퍼(Hopper™) 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU(H200 Tensor Core GPU)를 탑재하고 있다. 엔비디아 H200은 HBM3e를 제공하는 최초의 GPU다.

엔비디아 H200은 HBM3e를 통해 초당 4.8테라바이트(Terabytes)의 속도로 141GB의 메모리를 제공한다. 이전 모델인 엔비디아 A100에 비해 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다.

H200 기반 시스템은 2024년 2분기에 출시될 예정이다. H200은 H100에 비해 거의 두 배 정도 속도가 빠른 것으로 점쳐지고 있다.

엔비디아 H200은 4개(four-way)와 8개(eight-way) 구성의 엔비디아 HGX H200 서버 보드에서 사용할 수 있다. HGX H200 시스템의 하드웨어와 소프트웨어와 모두 호환된다.

이와 함께 지난 8월 발표된 HBM3e를 탑재한 엔비디아 GH200 그레이스 호퍼™ 슈퍼칩(GH200 Grace Hopper™ Superchip)이 포함된다.

이런 선택 사항을 통해 H200은 온프레미스(on-premises), 클라우드, 하이브리드 클라우드와 엣지를 비롯한 모든 유형의 데이터센터에 배포할 수 있다.

또 엔비디아 글로벌 파트너 서버 제조업체 에코시스템은 기존 시스템을 H200로 업데이트할 수 있다.

엔비디아 젠슨 황 CEO. 사진=엔비디아
엔비디아 젠슨 황 CEO. 사진=엔비디아

H200을 초고속 NV링크-C2C 인터커넥트를 갖춘 엔비디아 그레이스 CPU와 결합하면 GH200 그레이스 호퍼 슈퍼칩을 만들 수 있다.

여기에 대규모 HPC와 AI 애플리케이션을 지원하도록 설계된 통합 모듈인 HBM3e가 포함된다.

엔비디아 H200은 2024년 2분기부터 글로벌 시스템 제조업체와 클라우드 서비스 제공업체에서 구매할 수 있다.

송명섭 하이투자증권 연구원은 “시장에는 ChatGPT 등 LLM 서비스 출시를 위한 AI 서버 생산 급증이, LLM 서비스 출시 이후인 내년 중순부터 초기 투자가 완료되고 단기적으로 둔화될 가능성이 있다”면서 “올해 동사의 하이엔드 GPU 생산량은 A100, H100 도합 150 만개이고, 내년에는 TSMC 의 CoWoS 설비 증설 규모와 신제품 B100 의 Net Die (웨이퍼 당 칩수)까지 모두 감안할 경우, 최대 255만개의 생산이 가능할 것”이라고 말했다.

 

허준범 기자 jb_3heo@infostock.co.kr


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.