Изследователи от OpenAI, Anthropic и други организации обвиняват публично xAI,

...
Изследователи от OpenAI, Anthropic и други организации обвиняват публично xAI,
Коментари Харесай

„Безразсъдна“ и „безотговорна“: Експерти по сигурността скочиха срещу xAI на Илон Мъск

Изследователи от OpenAI, Anthropic и други организации упрекват обществено xAI, стартъпът за изкуствен интелект на Илон Мъск, в „ безразсъдна “ и „ изцяло безотговорна “ просвета на сигурност при създаването на технологията. Критиката следва седмици на кавги в xAI, които засенчиха софтуерните достижения на компанията.

Миналата седмица чатботът Grok направи антисемитски мнения, като неведнъж се дефинира за MechaHitler. Скоро откакто xAI извади чатбота си от мрежата, с цел да позволи казуса.

Освен това TechCrunch и други профилирани медии разкриха, че Grok 4 се съветва с персоналните политически възгледи на Илон Мъск, с цел да отговори на настоящи въпроси. Не на последно място, xAI пусна AI аватари, които имат формата на хиперсексуализирано аниме момиче и прекомерно нападателна панда.

По принцип прехвърчането на искри сред конкурентни AI лаборатории е нещо обикновено, само че в тази ситуация откривателите приканват за по-голямо внимание към практиките за сигурност на xAI, които съгласно тях са в несъгласие с нормите в промишлеността.

„ Не желаех да подлагам на критика Grok, защото работя за съперник, само че тук не става въпрос за конкуренция “, споделя Боаз Барак, професор по компютърни науки в Harvard, който прави проучвания в региона на сигурността в OpenAI, в обява в X. „ Уважавам учените и инженерите на xAI, само че методът, по който се подхожда към сигурността, е изцяло безконтролен “.

Той е изключително несъгласен с решението на xAI да не разгласява систематични карти – общоприети за промишлеността отчети, които в детайли разказват методите на образование и оценките за сигурност. В резултат на това, съгласно Барак, не е ясно какво образование по сигурност е било извършено за Grok 4.

OpenAI и Гугъл също имат противоречива известност, когато става въпрос за навреме шерване на систематични карти при представянето на нови AI модели. OpenAI реши да не разгласява систематична карта за GPT-4.1, потвърждавайки, че това не е авангарден модел. Междувременно Гугъл изчака месеци след представянето на Gemini 2.5 Pro, с цел да разгласява отчет за сигурността. Въпреки това тези компании обичайно разгласяват отчети за сигурността на всички нови модели, преди да станат необятно налични.

Барак също по този начин отбелязва, че AI аватарите на Grok „ вземат най-лошите проблеми, които имаме сега, свързани с прочувствената взаимозависимост, и се пробват да ги усилят “.

„ През последните години сме видели безчет истории за нестабилни хора, които развиват тревожни взаимоотношения с чатботове, и по какъв начин прекомерно общителните отговори на AI могат да ги докарат до ръба на лудостта “, подчертава той.

Самуел Маркс, откривател в региона на сигурността на изкуствения разсъдък в Anthropic, също показва противоречие с решението на xAI да не разгласява отчет за сигурността, наричайки този ход „ необмислен “.

„ Практиките на Anthropic, OpenAI и Гугъл във връзка с стартирането на артикули на пазара имат проблеми “, написа той в X. „ Но те най-малко вършат нещо, каквото и да е, с цел да оценят сигурността преди стартирането на пазара и да документират резултатите. xAI не прави това “.

В необятно споделена обява в онлайн форума LessWrong неизвестен откривател твърди, че Grok 4 няма значими ограничения за сигурност. Независимо дали това е правилно или не, светът наподобява открива минусите на чатбота в действително време. Няколко от проблемите с сигурността на xAI от този момент станаха обект на сериозна полемика, а компанията твърди, че ги е разрешила с промени в систематичните подсказки на Grok.

Дан Хендрикс, консултант по сигурността в xAI и шеф на Центъра за сигурност на изкуствения разсъдък, разгласява в X, че компанията е направила „ оценки на рисковите благоприятни условия “ на Grok 4. Резултатите от тези оценки обаче не са били споделени обществено.

„ Притеснява ме, когато общоприетите практики за сигурност не се съблюдават в цялата AI промишленост, като да вземем за пример публикуването на резултатите от оценките на рисковите благоприятни условия “, споделя и Стивън Адлер, самостоятелен откривател в региона на AI, който преди този момент е управлявал екипи по сигурност в OpenAI, пред TechCrunch. „ Правителствата и обществеността заслужават да знаят по какъв начин AI фирмите се оправят с рисковете на доста мощните системи, които настояват, че построяват “.

Интересното по отношение на съмнителните практики за сигурност на xAI е, че Мъск от дълго време е един от най-известните бранители на сигурността в промишлеността за изкуствен интелект. Милиардерът, водач на xAI, Tesla и SpaceX, неведнъж е предупреждавал за капацитета на усъвършенстваните системи да причинят пагубни последствия за хората и е последовател на отворения метод към създаването на модели за изкуствен интелект.
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР