През 60-те години на миналия век учен от Масачузетския технологичен

...
През 60-те години на миналия век учен от Масачузетския технологичен
Коментари Харесай

AI моделите с отворен код застрашават печалбите на големите конкуренти

През 60-те години на предишния век академик от Масачузетския софтуерен институт основава стратегия за обработка на естествения човешки език, която може да имитира човешки диалог. Наречена ELIZA, тя е ранна итерация на чатботовете, които се появиха тази година в софтуерния бранш. ELIZA не бе печелившо начинание. Не са такива и сегашните ѝ версии.

Генеративният изкуствен интелект има съществени благоприятни условия за трансформиране. Чатботовете, създадени благодарение на огромните езикови модели (LLM), могат да разрешат безпроблемна връзка сред хората и компютрите. Появи се дълго чакания интерфейс за реализиране на лесна връзка сред индивида и компютъра – благодарение на елементарна човешка тирада.

Основният въпрос на вложителите е дали патентованите LLM модели могат надеждно и безпроблемно да печелят пари за огромните софтуерни компании. Но не щеш ли появилите се LLM с отворен код могат да бъдат по-евтина опция за по-малките компании, които създават приложения по поръчка. Това са чатботове, подготвени и тренирани единствено в една област и са тясно профилирани. Те са неведнъж по-евтини и са доста положителни помощници за по-малките компании, които в действителност могат да употребяват няколко от тези профилирани изкуствени интелекта.

За LLM няма публично определение. Те се разказват като стратегии, подготвени въз основата на големи размери от данни, налични онлайн, и способни да предвиждат идната дума в изречението.

С увеличението на изчислителната мощност ИИ към този момент са в положение да правят неконтролирано образование от неструктурирани данни. Те дават някои отговори, които изненадват даже основателите им.

Сложността на LLM е скочила доста напред. През 2020 година OpenAI показа своя Generative Pretrained Transformer 3, или GPT-3. Този LLM имаше 175 милиарда параметри.

Колкото повече са параметрите, толкоз повече данни може да обработва и генерира съответния LLM. PaLM на Гугъл, който обслужва нейния чатбот Bard, има 540 милиарда Най-новата версия на LLM на OpenAI е GPT-4. Компанията не е показала броя на параметрите, а специалистите са на мнение, че те са към 100 милиарда.

Изчислителната мощност, нужна за сходни LLM, е голяма. Правилото е, че колкото по-голям е употребяваният набор от данни, толкоз по-добра е продуктивността. Това на доктрина лимитира LLM до дребен брой добре финансирани и доста богати компании.

Но нишовите приложения могат да работят с по-малки набори от данни. Така да вземем за пример чатботът BloombergGPT, което е предопределено за подкрепяне на разбора на информацията от терминалите за данни на Bloomberg, има 50 милиарда параметри и е неведнъж по-евтин. Базовият LLM модел на основания в Торонто стартъп Cohere AI има 52 милиарда параметри.

Но доста по-голямо значение за компании като Гугъл имат LLM моделите с отворен код. Meta даде своята система, LLaMA, като програмен продукт с отворен код, който може да бъде заимствуван и употребен от всеки. Върху нея могат да се построяват по-малки LLM. Но има и други планове от сходен жанр.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР