AMD представи първата си серия от големи езикови модели (LLM)

...
AMD представи първата си серия от големи езикови модели (LLM)
Коментари Харесай

AMD представи AMD OLMo, своя първи 1В-параметричен LLM

AMD показа първата си серия от огромни езикови модели (LLM) с изцяло отворен код и 1 милиард параметъра, озаглавена AMD OLMo, която е насочена към разнообразни приложения и е авансово подготвена на графичните процесори Instinct MI250 на компанията. Счита се, че LLM оферират положителни благоприятни условия за размишление, следване на указания и чат.

LLM-ите с отворен код на AMD имат за цел да подобрят позицията на компанията в ИИ бранша и да дадат опция на нейните клиенти (и на всички останали) да внедряват тези модели с отворен код с хардуера на AMD. Чрез даването на отворен достъп до данните, теглата, инструкциите за образование и кода AMD цели да даде опция на разработчиците освен да възпроизвеждат моделите, само че и да ги надграждат за по-нататъшни нововъведения. Освен потреблението в центровете за данни, AMD даде опция за локално разрастване на моделите OLMo на лични компютри с AMD Ryzen AI, оборудвани с невронни процесори (NPU), което разрешава на разработчиците да употребяват моделите на AI на персоналните устройства.

Различните модели на AMD OLMo са подготвени на голям набор от данни от 1,3 трилиона токена благодарение на 16 хардуерни възела, всеки от които разполага с четири графични процесора AMD Instinct MI250 (общо 64 процесора).

Освен това AMD организира проби благодарение на специфичните бенчмаркове за изкуствен интелект, като ToxiGen (който мери токсичния език, при който по-ниският резултат е по-добър), crows_pairs (оценка на пристрастността) и TruthfulQA-mc2 (оценка на истинността на отговорите). Установено е, че моделите AMD OLMo са на едно равнище с другите сходни модели.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР