Вчера, на конференцията GTC 2024 NVIDIA представи ИИ-ускорители от следващо

...
Вчера, на конференцията GTC 2024 NVIDIA представи ИИ-ускорители от следващо
Коментари Харесай

NVIDIA представи най-мощния чип в света Blackwell B200, както и сървърните системи HGX B100, B200 и DGX B200

Вчера, на конференцията GTC 2024 NVIDIA показа ИИ-ускорители от последващо потомство, употребяващи графични процесори Blackwell.

Те ще разрешат основаването на още по-големи невронни мрежи, в това число огромни езикови модели (LLM) с трилиони параметри и ще бъдат до 25 пъти по-енергийно ефикасни и рентабилни от поколението Hopper.

Архитектурата Blackwell е кръстена на американския математик Дейвид Харолд Блекуел и включва редица новаторски технологии за ускорение на изчисленията. Те ще оказват помощ за пробив в обработката на данни, инженерното моделиране, автоматизацията на проектирането на електроника, компютърно подпомаганото планиране на медикаменти, квантовите калкулации и генеративния ИИ. NVIDIA слага специфичен акцент върху последното:

„ Генеративният ИИ е определящата технология на нашето време. Графичните процесори Blackwell са моторът на новата индустриална гражданска война. “

акцентира основният изпълнителен шеф на Nvidia Дженсън Хуанг по време на презентацията

Графичният процесор NVIDIA B200 е най-мощният чип в света.

При изчисленията в FP4 и FP8 новият графичен процесор обезпечава продуктивност надлежно до 20 и 10 Pflops. Той се състои от два кристала, които са създадени по специфична версия на 4 nm 4NP развой на TSMC и са комбинирани с 2,5D CoWoS-L пакет. Това е първият графичен процесор на NVIDIA с чипсетна класификация. Чиповете са свързани с шина NV-HBI с ширина на честотната лента от 10 TB/s и работят като един графичен процесор. Като цяло Blackwell B200 има 208 милиарда транзистора.

Отстрани на кристалите на графичния процесор са ситуирани 8 стека HBM3e памет с общ потенциал 192 GB. Широчината на честотната лента доближава 8 TB/s. За да се комбинират няколко ускорителя Blackwell в една система, новият графичен процесор получи поддръжка на интерфейса NVLink от пето потомство, което обезпечава пропускателна дарба до 1,8 TB/s в двете направления. С помощта на този интерфейс (комутатор NVSwitch 7.2T) могат да бъдат обединени до 576 графични процесора.

Един от главните източници на по-високата продуктивност на B200 са новите тензорни ядра и второто потомство на Transformer Engine.

Последният се е научил по-фино да сортира нужната акуратност на изчисленията за избрани задания, което се отразява както на скоростта на образование и работа на невронните мрежи, по този начин и на оптималния размер на поддържаните LLM. Сега NVIDIA предлага образование на изкуствен интелект във формат FP8, а FP4 ще бъде задоволителен за работа с подготвени невронни мрежи. Имайте поради, че Blackwell поддържа работа с огромно многообразие от формати. Включително FP4, FP6, FP8, INT8, BF16, FP16, TF32 и FP64.

Водещият ускорител на новата архитектура ще бъде суперчипът NVIDIA Grace Blackwell, който съчетава двойка графични процесори B200 и централния процесор NVIDIA Grace Arm със 72 ядра Neoverse V2.

Този ускорител е с широчина половин сървърен долап и има TDP до 2,7 kW. Производителността при интервенции FP4 доближава 40 Pflops, а при интервенции FP8/FP6/INT8 новият GB200 може да обезпечи 10 Pflops.

Както отбелязва самата Nvidia, новият артикул обезпечава 30-кратно нарастване на продуктивността спрямо Nvidia H100 за работни натоварвания, включващи огромни езикови модели и е до 25 пъти по-икономичен и енергийно ефикасен.

NVIDIA показа и сървърните системи HGX B100, HGX B200 и DGX B200. Всички те оферират по 8 ускорителя Blackwell, свързани посредством NVLink 5. Системите HGX B100 и HGX B200 нямат личен процесор и се разграничават между тях единствено по потреблението на сила и надлежно по мощността. HGX B100 е лимитирана до TDP от 700 W и обезпечава до 112 и 56 Pflops надлежно в FP4 и FP8/FP6/INT8 интервенции. HGX B200 има TDP от 1000W и предлага до 144 и 72 Pflops надлежно в интервенции FP4 и FP8/FP6/INT8.

И най-после, DGX B200 повтаря HGX B200 във връзка с продуктивността, само че съставлява цялостна система с двойка процесори Intel Xeon Emerald Rapids. Според NVIDIA, DGX B200 е до 15 пъти по-бърз в задачата за осъществяване на към този момент подготвени „ трилионни “ модели спрямо предшественика си.

За най-мащабните системи за изкуствен интелект, включващи от 10 000 до 100 000 ускорителя GB200 в границите на един център за данни, Nvidia предлага да ги клъстерира.

Много производители скоро ще показват своите системи, основани на Nvidia B200, в това число Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn и ZT Systems. Nvidia GB200 е също по този начин част от платформата Nvidia DGX Cloud. По-късно през тази година решения, основани на този суперчип ще бъдат налични от огромните снабдители на облачни услуги, в това число AWS, Гугъл Cloud и Oracle Cloud.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР