През последните години NVIDIA постигна огромен успех с насочването си

...
През последните години NVIDIA постигна огромен успех с насочването си
Коментари Харесай

Забравете за Intel и AMD – следващият голям конкурент на NVIDIA може да е компания, за която не сте чували

През последните години NVIDIA реализира голям триумф с насочването си към изкуствения разсъдък, защото огромните езикови модели и персоналните компютри с изкуствен интелект наподобява ще бъдат горещите тематики през годината. По-нови и по-малки компании обаче се борят за нейния пазарен дял и те не са тези, които може би очаквате.

Както оповестява The Economist, има разработки в региона на графичните процесори отвън най-хубавите, създавани от NVIDIA и AMD за калкулации с изкуствен интелект. Това е по този начин, тъй като някои от днешните огромни езикови модели работят в доста конфигурации, включващи взаимосвързани графични процесори и памет, като да вземем за пример при хардуера на Cerebras.

Cerebras Systems Inc. е учредена единствено преди 9 години, само че наподобява се възползва всеобщо от неотдавнашния взрив на изкуствения разсъдък.

Чипът CS-3 на Cerebras е с двойно по-голям размер на матрицата на големия GB200 на NVIDIA и е с размерите на авто волан, като за държането му са нужни две ръце. Производителят го разказва като „ най-бързия и мащабируем ИИ-ускорител в света “, който е предопределен за „ образование на най-усъвършенстваните ИИ-модели в света “.

Нещо повече, Cerebras твърди, че нейният Wafer Scale Engine е „ чипът, който наруши закона на Мур “. Както демонстрират вътрешните бенчмаркове, CS-3 стои решително над H100 с общо 10,000,000,000,000,000 транзистора. За информация, GB200 би трябвало да разполага с 208,000,000,000,000, защото CS-3 се отличава със зашеметяващото нарастване от 4707%.

Въпреки това освен Cerebras прави стъпки в тази тенденция, защото нов стартъп с името Groq също създава хардуер за калкулации с изкуствен интелект. Вместо да се стреми към по-големи размери от тези на съперниците си, обаче, тази компания е създала по този начин наречените профилирани LPU (language processing units), които са основани за дейно и бързо осъществяване на огромни езикови модели.

По думите на компанията Groq LPU Inference Engine е „ цялостна система за ускорение на системата за заключения, която обезпечава забележителна продуктивност, резултатност и точност в елементарен дизайн “. Понастоящем тя работи с Llama-2 70B, широкомащабен генеративен ИИ-модел със скорост 300 токена на консуматор в секунда.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР