NVIDIA представи новите ИИ-ускорители H200, базирани на същата архитектура Hopper

...
NVIDIA представи новите ИИ-ускорители H200, базирани на същата архитектура Hopper
Коментари Харесай

NVIDIA представи ИИ-ускорителите H200 и Quad GH200

NVIDIA показа новите ИИ-ускорители H200, основани на същата архитектура Hopper като предшествениците си H100, показани преди повече от година и половина. Според компанията новият H200 е първият в света ИИ-ускорител, който употребява HMB3e памет. Дали ще измести H100, или ще остане междинно звено в еволюцията на решенията на NVIDIA единствено времето ще покаже – H200 ще бъде разполагаем през второто тримесечие на идната година, само че през 2024-та се чака и ново потомство ускорители – B100, които ще бъдат по-мощни и от H100 и от H200.

H200 разполага със 141 GB HBM3e памет с обща пропускателна дарба (ОПС) от 4,8 TB/s. За съпоставяне H100 има 80 GB HBM3 памет и Оборотна помпена станция от 3,35 TB/s. Хибридните ускорители GH200 ще получат до 480 GB LPDDR5x памет (512 GB/s) и 144 GB HBM3e памет (4,9 TB/s). Актуализираната версия на GH200 ще стане всеобщо налична след стартирането на H200, само че в това време NVIDIA ще доставя истинския 96 GB вид с HBM3 памет. Напомняме, че идният конкурентен модел AMD Instinct MI300X ще получи 192GB HBM3 памет с Оборотна помпена станция от 5,2 TB/s.

Към този миг NVIDIA не е разкрила цялостните спецификации на H200, само че наподобява, че изчислителната част на H200 остава същата или съвсем същата като тази на H100. NVIDIA цитира FP8 продуктивността на HGX-платформата с 8 ускорителя (има и вид с 4), която е 32 Pflops. Това значи 4 Pflops за всеки H200 – тъкмо толкоз, колкото е предложил и H100. Въпреки това има изгода от по-бързата и по-обемна памет – при дилемите за заключения може да се получи нарастване от 1,6-1,9 пъти.

Платките HGX H200 са изцяло съвместими с платформите HGX H100, които към този момент са на пазара, както механично, по този начин и във връзка с зареждането и разсейването на топлината. Това ще разреши на сътрудници като ASRock Rack, ASUS, Dell, Eviden, GIGABYTE, HPE, Lenovo, QCT, Supermicro, Wistron и Wiwynn доста бързо да актуализират своите оферти. H200 ще се предлага и в облак. AWS, Гугъл Cloud Platform, Oracle Cloud, CoreWeave, Lambda и Vultr ще бъдат първите, които ще ги получат.

В същото време NVIDIA показа главния „ конструктивен детайл “ за суперкомпютрите на близкото бъдеще – платката Quad GH200 с 4 чипа GH200, където всички ускорители са свързани между тях посредством NVLink по схемата „ всеки с всеки “. Като цяло платката носи повече от 2 TB памет, 288 Arm ядра и предлага FP8 продуктивност от 16 Pflops. Quad GH200 е в основата на възлите HPE Cray EX254n и Eviden Bull Sequana XH3000. Според оценките на NVIDIA до края на 2024 година общата продуктивност на системите за изкуствен интелект, основани на GH200 ще доближи 200 Eflops.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР