Американският стартъп Cerebras Systems представи гигантския процесор WSE-3 за приложения,

...
Американският стартъп Cerebras Systems представи гигантския процесор WSE-3 за приложения,
Коментари Харесай

Американски стартъп представи гигантски процесор с 900 000 ядра

Американският стартъп Cerebras Systems показа гигантския процесор WSE-3 за приложения, свързани с машинно образование и други ресурсоемки задания. Компанията твърди, че е процесорът е нараснал два пъти продуктивността си за ват употребявана сила спрямо предшественика си.

Площта на новия процесор е 46 225 mm2. Той е създаден по 5 nm развой на TSMC, съдържа 4 трилиона транзистора, 900 000 ядра и е смесен с 44 GB вградена SRAM памет. Твърди се, че продуктивността му при FP16 интервенции е 125 Pflops.

В съпоставяне с ускорителя H100 на Nvidia, основаната на WSE-3 платформа Cerebras CS-3 е физически 57 пъти по-голяма и към 62 пъти по-бърза във FP16 интервенциите. Но като се имат поради размерът и потреблението на сила на Cerebras CS-3, по-справедливо е да се съпостави с платформата Nvidia DGX с 16 ускорителя H100. Дори и в този случай обаче CS-3 е към 4 пъти по-бърз от съперника си, в случай че приказваме за FP16 интервенции.

Cerebras CS-3

Едно от главните преимущества на системите Cerebras е тяхната честотна лента. С 44 GB SRAM във всеки WSE-3, най-новата система Cerebras CS-3 има ширина на честотната лента от 21 байта в секунда. За съпоставяне, Nvidia H100 с HBM3 памет има пропускателна дарба от 3,9 байта в секунда. Това обаче не значи, че системите Cerebras са по-бързи във всички сюжети на потребление от конкурентните решения. Тяхната продуктивност зависи от фактора „ разредени “ интервенции.

Nvidia реализира двойно по-голям брой интервенции с плаваща запетая от своите решения, употребявайки „ разредени “ интервенции. На собствен ред Cerebras твърди, че е постигнала усъвършенстване до към 8 пъти. Това значи, че новата система Cerebras CS-3 ще бъде малко по-бавна при по-плътни FP16 интервенции от двойка сървъри Nvidia DGX H100 при същата консумация на сила и повърхност. Тя ще обезпечи към 15 Pflops продуктивност по отношение на 15,8 Pflops на Nvidia (16 ускорителя H100 обезпечават 986 Tflops производителност).

Една от инсталациите за изкуствен интелект на Condor за Galaxy AI на Samsung

В допълнение към оповестяването на новия процесор, Cerebras разгласи, че си сътрудничи с Qualcomm за основаване на усъвършенствани модели за ИИ-ускорителите с архитектура Arm на Qualcomm.

Двете компании загатват за евентуално съдействие още от ноември предходната година. Тогава Qualcomm показа личния си ИИ-ускорител Cloud AI100 Ultra PCIe формат. Той съдържа 64 ИИ-ядра, 128 GB LPDDR4X памет с пропускателна дарба 548 GB/s и обезпечава продуктивност при INT8 интервенции от 870 TOPS. Той има TDP от 150 W.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР