Входната памет на Claude нараства до 75 000 думи, побеждавайки

...
Входната памет на Claude нараства до 75 000 думи, побеждавайки
Коментари Харесай

Claude AI от Anthropic вече може да изчете цяла книга за секунди

Входната памет на Claude нараства до 75 000 думи, побеждавайки GPT-4 с огромна разлика.

Компанията за изкуствен интелект Anthropic разгласи, че е дала на своя сходен на ChatGPT езиков модел Claude AI способността да проучва материал с размер на цяла книга за по-малко от минута. Това ново усъвършенстване идва от разширението на контекстния прозорец до 100 000 токена или към 75 000 думи.

Подобно на GPT-4 на OpenAI, Claude е огромен езиков модел (LLM), който работи, като планува идващия токен в поредност, когато му бъде даден избран вход. Токените са фрагменти от думи, употребявани за опростяване на обработката на AI данни, а „ контекстният прозорец “ е сходен на краткосрочната памет – какъв брой входни данни, предоставени от индивида, LLM може да обработи едновременно.

По-голям контекстен прозорец значи, че LLM може да преглежда по-големи творби като книги или да взе участие в доста дълги интерактивни диалози, които обгръщат „ часове или даже дни “.

Средностатистическият човек може да прочете 100 000 токена текст за към 5 часа и по-късно може да му би трябвало доста повече време, с цел да усвои, запомни и проучва тази информация. Сега Claude може да направи това за по-малко от минута. Например, ние заредихме целия текст на The Great Gatsby в Claude-Instant (72K токена) и променихме един ред, с цел да кажем, че господин Карауей е „ софтуерен инженер, който работи върху принадлежности за машинно образование в Anthropic “. Когато помолихме модела да забележи какво е особеното, той отговори с верния отговор за 22 секунди.

разясниха от Anthropic

Въпреки че може да не звучи впечатляващо да избирате промени в текст (Microsoft Word може да направи това, само че единствено в случай че има два документа за сравнение), помислете, че откакто подадете на Claude текста на Великия Гетсби, AI моделът може да отговори интерактивно въпроси за него или да проучва смисъла му. 100 000 токена е огромно надграждане за LLM. За съпоставяне, GPT-4 LLM на OpenAI може да се похвали с дължина на контекстния прозорец от 4 096 токена (около 3 000 думи), когато се употребява като част от ChatGPT, и 32 768 токена посредством GPT-4 API.

Според Anthropic, уголеменият контекстен прозорец може евентуално да помогне на бизнеса да извлече значима информация от голям брой документи посредством разговорно взаимоотношение. Компанията допуска, че този метод може да надмине методите, основани на векторно търсене, когато се работи със комплицирани поръчки.

Въпреки че не е толкоз огромно име в AI като Microsoft и Гугъл, Anthropic се обрисува като незабравим противник на OpenAI във връзка с конкурентни оферти в LLMs и API.

Бившият вицепрезидент на OpenAI за проучвания Дарио Амодей и неговата сестра Даниела основаха Anthropic през 2021 година след противоречие по отношение на комерсиалната посока на OpenAI.

По-специално, Anthropic получи инвестиция от 300 милиона $ от Гугъл в края на 2022 година, като Гугъл закупи 10 % дял във компанията.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР