조회 수 1047 추천 수 0 댓글 0

단축키

Prev이전 문서

Next다음 문서

단축키

Prev이전 문서

Next다음 문서

Extra Form

NVIDIA가 호퍼 아키텍처 GPU와 HBM3e 메모리를 탑재한 H200, 그리고 HGX H200을 발표했습니다. 

 

메모리 대역폭은 4.8TB/s, 용량은 141GB로 H100보다 대역폭이 1.4배, 용량이 2배로 늘었습니다. 그래서 Llama2 70B는 1.9배, GPT-3 175B는 1.6배의 성능 향상이 있습니다. 

 

SC23—NVIDIA today announced it has supercharged the world’s leading AI computing platform with the introduction of the NVIDIA HGX™ H200. Based on NVIDIA Hopper™ architecture, the platform features the NVIDIA H200 Tensor Core GPU with advanced memory to handle massive amounts of data for generative AI and high performance computing workloads.

The NVIDIA H200 is the first GPU to offer HBM3e — faster, larger memory to fuel the acceleration of generative AI and large language models, while advancing scientific computing for HPC workloads. With HBM3e, the NVIDIA H200 delivers 141GB of memory at 4.8 terabytes per second, nearly double the capacity and 2.4x more bandwidth compared with its predecessor, the NVIDIA A100.

H200-powered systems from the world’s leading server manufacturers and cloud service providers are expected to begin shipping in the second quarter of 2024.

“To create intelligence with generative AI and HPC applications, vast amounts of data must be efficiently processed at high speed using large, fast GPU memory,” said Ian Buck, vice president of hyperscale and HPC at NVIDIA. “With NVIDIA H200, the industry’s leading end-to-end AI supercomputing platform just got faster to solve some of the world’s most important challenges.”

Perpetual Innovation, Perpetual Performance Leaps
The NVIDIA Hopper architecture delivers an unprecedented performance leap over its predecessor and continues to raise the bar through ongoing software enhancements with H100, including the recent release of powerful open-source libraries like NVIDIA TensorRT™-LLM.

The introduction of H200 will lead to further performance leaps, including nearly doubling inference speed on Llama 2, a 70 billion-parameter LLM, compared to the H100. Additional performance leadership and improvements with H200 are expected with future software updates.

NVIDIA H200 Form Factors
NVIDIA H200 will be available in NVIDIA HGX H200 server boards with four- and eight-way configurations, which are compatible with both the hardware and software of HGX H100 systems. It is also available in the NVIDIA GH200 Grace Hopper™ Superchip with HBM3e, announced in August.

With these options, H200 can be deployed in every type of data center, including on premises, cloud, hybrid-cloud and edge. NVIDIA’s global ecosystem of partner server makers — including ASRock RackASUS, Dell Technologies, Eviden, GIGABYTE, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron and Wiwynn — can update their existing systems with an H200.

Amazon Web Services, Google Cloud, Microsoft Azure and Oracle Cloud Infrastructure will be among the first cloud service providers to deploy H200-based instances starting next year, in addition to CoreWeaveLambda and Vultr.

Powered by NVIDIA NVLink™ and NVSwitch™ high-speed interconnects, HGX H200 provides the highest performance on various application workloads, including LLM training and inference for the largest models beyond 175 billion parameters.

An eight-way HGX H200 provides over 32 petaflops of FP8 deep learning compute and 1.1TB of aggregate high-bandwidth memory for the highest performance in generative AI and HPC applications.

When paired with NVIDIA Grace™ CPUs with an ultra-fast NVLink-C2C interconnect, the H200 creates the GH200 Grace Hopper Superchip with HBM3e — an integrated module designed to serve giant-scale HPC and AI applications.

Accelerate AI With NVIDIA Full-Stack Software
NVIDIA’s accelerated computing platform is supported by powerful software tools that enable developers and enterprises to build and accelerate production-ready applications from AI to HPC. This includes the NVIDIA AI Enterprise suite of software for workloads such as speech, recommender systems and hyperscale inference.

Availability
The NVIDIA H200 will be available from global system manufacturers and cloud service providers starting in the second quarter of 2024.

Watch Buck’s SC23 special address on Nov. 13 at 6 a.m. PT to learn more about the NVIDIA H200 Tensor Core GPU.

 

01_o.jpg

 

https://nvidianews.nvidia.com/news/nvidia-supercharges-hopper-the-worlds-leading-ai-computing-platform


0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
List of Articles
번호 분류 제목 글쓴이 조회 수 날짜
공지 뉴스 구글 최신 뉴스 file 덕후냥이 1457 2024.12.12
공지 일반 샤오미 BE6500 라우터 실사용 후기 (Wi-Fi 7 + 2.5G 스위치 기능까지 ㄷㄷ) 4 덕후냥이 1025 2025.06.28
공지 🚨(뉴비필독) 전체공지 & 포인트안내 22 update 무명의덕질 29071 2024.11.04
공지 URL만 붙여넣으면 끝! 임베드 기능 무명의덕질 23120 2025.01.21
1500 정보 마이크론 2023회계연도 2분기 실적 발표 file 덕후냥이 1827 2023.03.30
1499 정보 사파이어 래피드의 AMX를 사용해 스테이블 디퓨전 성능을 10배 향상 file 덕후냥이 1578 2023.03.30
1498 정보 AMD/인텔 메인보드 가격이 최근 2년 반 사이에 35~40% 증가 덕후냥이 1551 2023.03.30
1497 정보 바이든 미국 대통령, PCB 생산을 위해 국방물자생산법을 발동 덕후냥이 1710 2023.03.30
1496 정보 인텔 데이터센터 / AI 인베스터 웨비나. 차세대 제온의 계획 file 덕후냥이 1820 2023.03.30
1495 정보 Puget Systems의 2022년 하드웨어 동향 file 덕후냥이 1624 2023.03.30
1494 정보 MSI A620 메인보드가 유럽에 87유로로 등록 file 덕후냥이 1523 2023.03.30
1493 정보 지포스 RTX 4060 Ti/4060 출시일 덕후냥이 1373 2023.03.30
1492 정보 TCL CSOT 초슬림 베젤 디스플레이 양산 중 file 덕후냥이 1432 2023.03.30
1491 정보 화웨이 토크밴드 B7, 스마트밴드+이어셋 file 덕후냥이 2224 2023.03.30
1490 정보 레노버, LOQ이라는 게이밍 브랜드를 도입 file 덕후냥이 1915 2023.03.30
1489 정보 지포스 RTX 4060 Ti의 박스 탬플릿 유출 file 덕후냥이 1819 2023.03.30
1488 정보 필립스, 44.5인치 듀얼 QHD 커브드 디스플레이 file 덕후냥이 1818 2023.03.30
1487 정보 DRAM 평균 판매 가격이 올해 2분기에 10~15% 하락 file 덕후냥이 1645 2023.03.30
1486 정보 NVIDIA, AI를 써서 최대 30배 빠르게 칩 설계를 최적화하는 AutoDMP file 덕후냥이 1996 2023.03.30
1485 정보 트위터, 개발자용 API의 세로운 요금 체계 발표 file 덕후냥이 1723 2023.03.31
1484 정보 머스크 등 전문가 1000명 'AI 개발 잠정 중단' 촉구 덕후냥이 1684 2023.03.31
1483 정보 AMD 라이젠9-5세대 7950X 라파엘 스파이더 차트를 확인해보세요! file 덕후냥이 1804 2023.04.02
1482 정보 AMD APU가 특별한 이유!! (세잔, 르누아르, 피카소, 레이븐릿지) file 덕후냥이 1653 2023.04.02
1481 정보 ASUS, ROG Hero, ROG Strix 및 TUF Gaming의 새로운 X670E 메인보드 3종 발표 file 덕후냥이 2165 2023.04.02
Board Pagination Prev 1 2 3 4 5 ... 75 Next
/ 75