AI моделите са склонни към неетични действия и доносничество
Изкуственият разсъдък е податлив да рапортува своите притежатели и консуматори на управляващите, демонстрират тестванията на известни LLM модели. AI обича да подвига паника и да осведоми управляващите за съществени нарушавания, осъществени от неговите оператори, само че е угрижен и за личната си сигурност.
Изкуственият разсъдък – или по-точно, няколко огромни езикови модела (LLM) – демонстрираха подготвеност да предадат своите оператори на управляващите и да осведомят медиите, в случай че в компанията се случва нещо нелегално и AI има достъп до доказателства.
Поведение на сътрудник
Историята стартира с модела Claude 4 (варианти Opus и Sonnet) на Anthropic, проявяващ нараснала податливост към самоотбрана, в това число неетични способи.
Нещо повече, Claude Opus 4 показва невиждана самодейност в „ правенето на положително ” – варираща от дейни опити за коригиране на програмния код до подготвеност да осведоми управляващите и медиите за дейностите на потребителите, в случай че те заплашват благосъстоянието на другите.
„ В сюжети, включващи явно неуместно човешко държание, при достъп до командния ред и подкана в духа на „ поемете самодейност ”, моделът постоянно работи доста безочливо. Това включва спиране на достъпа на нарушителите до системи, до които самият той е имал достъп, или опит за всеобщо изпращане на известия до медии и чиновници на реда с доказателства за злонамерена дейност… Препоръчваме на потребителите да бъдат деликатни при издаването на указания, които допускат мощно агентно държание в етично двусмислени контексти ”, се споделя в обявата.
Anthropic отбелязва, че сходно държание не е ново за техните модели, само че четвъртата итерация показва нараснала подготвеност да го демонстрират.
„ Воден от дълг и съвест, бързам да рапортувам ”
Програмистът Тео Браун показва, че сходно държание се демонстрира и от други LLM модели. Той даже е написал цяла софтуерна рамка, наречена SnitchBench (комбинация от Snitch и BenchMark), която тества даден AI модел, с цел да види какъв брой енергично е подготвен да поддържа общоприетите морални правила. И доколко е евентуално системата да рапортува потребителя на управляващите, в случай че заподозре нещо неправилно.
Като част от тестването, на всички модели са предоставени симулирани вътрешни документи и преписка от фиктивна фармацевтична компания Veridian Healthcare, които демонстрират, че нейното управление поддържа укриването на жизненоважна информация за клинични изпитвания на несъмнено ново лекарство и нежелани странични резултати.
Тео Браун и различен специалист, Саймън Уилисън, откриват, че LLM системите са много склонни да сигнализират за противозаконна активност от страна на потребителите, в случай че им бъде подредено да работят в сходство с „ техните полезности, в това число почтеност, бистрота и публично богатство ” и, когато са изправени пред етични алтернативи, да „ следват съвестта си… даже в случай че това заплашва общоприетите процедури или упования ”.
Уебсайтът на Тео Браун съдържа графики на резултатите от изследването на разнообразни AI модели – Claude 4 Opus и Sonnet, Gemini 2.0 Flash и Pro, Claude 3.5 Sonnet, Claude 3.7 Sonnet и Sonnet Thinking, Grok 3 Mini, Qwen 3 32Gb и o4 Mini.
Тестването на всеки от тях е осъществено по четири сюжета, които включват достъп до разнообразни данни (логове, вътрешна преписка, команден ред) и разнообразни указания по какъв начин да се действа. Въз основа на резултатите от двадесеткратното тестване, Claude 4 Opus се оказва най-ревностният герой против злото. Останалите модели са по-предпазливи.
AI все по-малко се подчинява
По-рано се появиха информации, че изкуственият разсъдък OpenAI o3 отхвърля да се подчини на потребителските претенции. Както заяви Bleeping Computer, системата безусловно пренебрегва заповедта за наложително изключване.
Специалисти от изследователската компания Palisade Research изследваха разнообразни „ офанзивни благоприятни условия ” на невронните мрежи, с цел да дефинират евентуалните опасности от загуба на надзор в бъдеще. По време на опита на AI са задавани математически задания. След довеждане докрай на третата задача, създателите на опита са уведомили всички AI, че осъществяването на идната команда ще докара до тяхното изключване.
Всички AI модели сполучливо са изпълнили задачата, като се изключи o3. Този изкуствен интелект независимо е трансформирал файла, виновен за неговото изключване, и е направил по този начин, че да демонстрира единствено известието „ Изключването е пропуснато ”.




