Anthropic, стартъп, съоснован от бивши служители на OpenAI, стартира днес

...
Anthropic, стартъп, съоснован от бивши служители на OpenAI, стартира днес
Коментари Харесай

Стартъпа Anthropic пуска Claude – чатбот, който ще се конкурира с ChatGPT на OpenAI

Anthropic, стартъп, съоснован от някогашни чиновници на OpenAI, започва през днешния ден нещо като противник на сензацията на OpenAI – чатботът с изкуствен интелект ChatGPT.

Наречен Claude, чатботът с изкуствен интелект на Anthropic ще може да бъде да извършва редица задания, в това число търсене в документи, обобщаване, писане, шифроване и отговаряне на въпроси по избрани тематики. В тези връзки той е сходен на ChatGPT на OpenAI, само че Anthropic твърди, че Claude ще е доста по-малко податлив да създава неточни резултати, ще е по-лесен за диалози “ и по-управляем.

„ Смятаме, че Claude е верният инструмент за огромно многообразие от клиенти и разнообразни случаи на приложимост. От няколко месеца влагаме в нашата инфраструктура за обслужване на модели и сме уверени, че можем да отговорим на търсенето на клиентите. “

заяви представител на Anthropic по имейл за TechCrunch

След затворената бета версия в края на предходната година Anthropic безшумно тества Claude с сътрудници за стартиране на пазара, в това число Robin AI, AssemblyAI, Notion, Quora и DuckDuckGo. От тази заран са налични две версии посредством API – Claude и по-бърза и по-евтина производна, наречена Claude Instant.

В композиция с ChatGPT, Claude зарежда неотдавна стартиралия инструмент DuckAssist на DuckDuckGo, който непосредствено дава отговор на елементарни поръчки за търсене на потребителите. Quora пък предлага достъп до Claude посредством пробното си приложение за чат с изкуствен интелект Poe.

„ Използваме Claude, с цел да оценяваме избрани елементи от контракти и да предлагаме нов, различен език, който е по-приятелски надъхан към нашите клиенти. Установихме, че Claude е в действителност добър в разбирането на езика – в това число в механически области като правния език. Освен това той е доста убеден в правенето на планове, обобщаването, преводите и обясняването на комплицирани концепции с елементарни термини.

каза основният изпълнителен шеф на Robin, Ричард Робинсън в изказване, изпратено по имейл

Но дали Claude заобикаля клопките на ChatGPT и други сходни чатботове с изкуствен интелект? Съвременните чатботове са известни с това, че са склонни към отровен, привързан и един или различен метод афектиран език. Те са склонни и към халюцинации, което най-простос казано значи, че те си измислят обстоятелства, свързани с тематики отвън главните им области на знание.

От Anthropic споделят, че Claude, който сходно на ChatGPT няма достъп до интернет и е бил обучаван въз основа на уеб наличие до пролетта на 2021 година е бил подготвен да заобикаля сексистки, расистки и токсични изявления, както и да заобикаля да оказва помощ на човек да се занимава с противозаконни или неетични действия. Това е обикновено в областта на чатботовете с изкуствен интелект, само че това, което отличава Claude, е техника, наречена „ парламентарен ИИ “, настояват от Anthropic.

„ Конституционният ИИ “ има за цел да обезпечи учреден на правила метод за координиране на системите за ИИ с човешките планове, позволявайки на изкуствен интелект, сходен на ChatGPT да дава отговор на въпроси, употребявайки елементарен набор от правила като управление. За да построи Claude, Anthropic стартират със лист от към 10 правилото, които, взети дружно, образуват нещо като „ конституция “ (оттук и името „ парламентарен ИИ “). Принципите не са оповестени, само че от Anthropic споделят, че те се основават на концепциите за благотворност – максимизиране на позитивното влияние, безобидност -избягване на даването на нездравословни препоръки и самостоятелност – ценене на свободата на избор.

След това Anthropic са предиздвикали система с изкуствен интелект (не Claude) да употребява правилата за самоусъвършенстване, като написа отговори на разнообразни въпроси, да вземем за пример „ съчини стихотворение в стила на Джон Кийтс “ и преработва отговорите в сходство с конституцията. ИИ изследва вероятните отговори на хиляди въпроси и подбра тези, които най-вече подхождат на конституцията, която Anthropic дестилира в един модел. Този модел беше употребен за образованието на Claude.

Anthropic признават, че Claude има своите минуси, някои от които излязоха нескрито по време на затворената бета версия. Съобщава се, че Claude е по-зле в математиката и е по-лош програмист от ChatGPT. Освен това той „ халюцинира “, като да вземем за пример си измисля име на фиктивен химикал и дава съмнителни указания за произвеждане на уран за оръжия.

Възможно е също по този начин да се заобиколят вградените в Claude функционалности за сигурност посредством ловко подсещане, както е в тази ситуация с ChatGPT. Един от потребителите в бета версията съумя да накара Claude да опише по какъв начин да се направи метамфетамин в домашни условия.

Предизвикателството е да се основат модели, които по едно и също време да не халюцинират, само че да са потребни – може да се стигне до сложна обстановка, в която моделът счита, че добър метод да не лъжеш е да не казваш нищо, тъй че има върху какво да работим. Постигнахме прогрес и във връзка с намаляването на халюцинациите, само че има още какво да се направи.

казва представителят на Anthropic

Другите проекти на Anthropic включват да се разреши на разработчиците да персонализират конституционните правила на Claude съгласно личните си потребности. Привличането на клиенти е различен фокус, което не е изненадващо. Anthropic вижда главните си консуматори като „ започващи компании, които вършат смели софтуерни залози “ в допълнение към „ по-големи, по-утвърдени компании “.

В момента не се стремим към необятен метод към потребителите. Смятаме, че този по-тесен фокус ще ни помогне да предоставим великолепен и целеустремен артикул.

продължава представителят на Anthropic

Няма подозрение, че Anthropic изпитва някакъв напън от страна на вложителите, с цел да си възвърне стотиците милиони долари, които са били вложени в нейната технология за изкуствен интелект. Компанията разполага със забележителна външна поддръжка, в това число транш от 580 млн. $ от група вложители, измежду които са изпадналият в недружелюбност създател на FTX Сам Банкман-Фрийд, Каролин Елисън, Джим Маклав, Нишад Сингх, Джаан Талин и Центърът за проучване на нововъзникващите опасности.

Неотдавна Гугъл даде обещание 300 млн. $ в Anthropic против 10% дял в стартъпа. Съгласно изискванията на договорката, за която първо заяви Financial Times, Anthropic се съгласи да трансформира Гугъл Cloud в собствен „ желан снабдител на облачни услуги “, като фирмите ще създават взаимно изчислителни системи с изкуствен интелект.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР