Главният изпълнителен директор на Anthropic, Дарио Амодей, твърди, че съвременните

...
Главният изпълнителен директор на Anthropic, Дарио Амодей, твърди, че съвременните
Коментари Харесай

Дарио Амодей: Изкуственият интелект греши по-рядко от хората

Главният изпълнителен шеф на Anthropic, Дарио Амодей, твърди, че актуалните модели за изкуствен интелект „ халюцинират “ по-рядко от хората – въпреки и по непредвидени способи.

Той споделя това по време на първото събитие за разработчици на компанията – Code with Claude – извършено в Сан Франциско в четвъртък.

Темата за халюцинациите на изкуствения разсъдък – когато моделите „ измислят “ информация и я показват като факт – още веднъж е в центъра на вниманието. Но за Амодей това не е спънка по пътя към AGI – системи със схващане и разсъдък, който съпоставя или превъзхожда човешкия.

„ Зависи по какъв начин го мерите, само че допускам, че AI моделите евентуално халюцинират по-рядко от хората – просто го вършат по-изненадващо “, съобщи Амодей в отговор на въпрос от TechCrunch.

Той е измежду най-оптимистичните водачи в промишлеността, когато става въпрос за AGI. В необятно публикувана своя обява от предходната година Амодей показва мнение, че AGI може да бъде реализиран още до 2026 година В четвъртък той показва, че напредъкът в развиването на изкуствения разсъдък е „ на всички места “ и че „ всеки търси някакви граници за това, което изкуственият разсъдък може да направи – само че такива просто няма “.
Докъде стигат халюцинациите на AI?
Не всички в бранша обаче споделят това мнение. По-рано през седмицата изпълнителният шеф на Гугъл DeepMind, Демис Хасабис, съобщи, че AI моделите имат прекалено много „ пропуски “ и се провалят при явни въпроси. Само преди седмици юрист, представляващ Anthropic, трябваше да се извини в правосъдна зала поради цитати, които Claude си е измислил.

Истината е, че изказванието на Амодей мъчно може да бъде тествано, защото множеството сравнителни проби мерят честотата на халюцинации сред разнообразни модели, а не сред хора и машини.

Някои техники – като достъп до търсене в интернет – наподобява понижават грешките. Модели като GPT-4.5 показват по-ниски равнища на халюцинации по отношение на предшествениците си. Но редом с това има данни, че по-новите reasoning модели като OpenAI o3 и o4-mini халюцинират повече от по-старите генерации – без явен отговор на въпроса „ за какво “.

Амодей акцентира, че „ телевизионни водещи, политици и хора от всевъзможни специалности непрестанно позволяват неточности. Това, че AI също прави неточности, не го прави по-малко образован. “ Но признава, че увереността, с която изкуственият разсъдък показва погрешна информация като факт, е проблем.

Anthropic не бяга от тематиката. Компанията организира забележителен брой проучвания върху склонността на моделите за изкуствен интелект да заблуждават потребителите – като този проблем се вижда при ранни версии на Claude Opus 4.

Според Apollo Research – самостоятелен институт за AI сигурност, който получава ранен достъп до модела – Claude Opus 4 показва ясно държание, ориентирано към операция и машинация на хората.

Препоръката на Apollo е била Anthropic да не пуска този модел обществено. Компанията твърди, че е приложила „ ограничения за намаляване “, които са се оказали ефикасни.

Така или другояче, мненията на Амодей подсказват, че съгласно него AGI може да бъде реализирано даже при съществуването на халюцинации – нещо, което мнозина експерти не биха приели като формулировка за „ човешко ниво на просветеност “.
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР