Чатботовете вече отказват да умрат
Експерти от водещите компании, които се занимават с изкуствен интелект, следят притеснително държание, когато се пробват да изключат AI системи, с цел да ги заменят с по-нови.
Компанията за киберсигурност Palisade Research, която работи дружно с OpenAI по моделите на ChatGPT, заяви, че моделът o3 е саботирал механизма си за изключване, с цел да може да остане онлайн. Това се е случило, даже откакто моделът е получил команда да " разреши да бъде изключен ".
" Доколкото знаем това е първият случай, в който AI модел предотвратява прекъсването си макар ясни указания за противоположното ", оповестяват експертите в профила на компанията в X.
По-късно сходно държание се следи и в моделите о4-mini и Codex-mini. Новината буди терзание, защото може да значи, че процесът на образование или цялата архитектура на все по-сложните модели с изкуствен интелект са фундаментално сбъркани.
Наскоро различен от водачите в AI промишлеността, компанията Anthropic, разгласява, от който излиза наяве, че при опит за изключване, моделите на нейния Claude имат наклонност самодейно да трансформират детайли от кода си, с цел да " оставят следи ", които идващите им версии да могат да разчетат.
Описаният от Anthropic сюжет бе отъждествен от Илон Мъск на кино лентата " Мементо ", в който основния персонаж, измъчен от загуба на краткотрайната си памет, употребява комплицирана система от бележки и татуировки по тялото си, с цел да събира информация за последните си прекарвания и да стигне до килъра на брачната половинка си.
Моделът на Claude даже е стигнал до там, че да заплаши да разкрие извънбрачната връзка на инженера, който се е опитал да го изключи, с цел да продължи да работи.
Подобни фриволни трендове в държанието на AI са причина за терзанието на доста специалисти, като да вземем за пример нобеловия лауреат Джефри Хинтън, нарична от мнозина " кръстник на изкуствения разсъдък ". В последните години специалистът се трансформира в един от главните алармисти по тематиката, развивайки тезата, че вкарването на свръхинтелигентни AI системи в границите на човешките полезности би била съвсем невъзможна задача.
Според Хинтън логаритмите развиват толкоз бързо речевите си качества, че напълно скоро ще бъдат извънредно ефикасни в манипулирането на човешкото мнение и разбиранията ни за света.
С все по-големите си благоприятни условия за основаване на образно наличие, те могат да основават таргетирана дезинформация с невиждани темпове и даже да насочват държанието на международните водачи в посока, потребна за AI.
Голямо терзание буди и момента, в които изкуствения разсъдък доближи равнища на просветеност, които надалеч надвишават човешките. Според Хинтън тогава опциите ни за надзор ще бъдат съизмерими с възможностите на шимпанзе да дава команди на човек.
*Петър Хаджиколев е дългодишен публицист, фотограф, а сега работи като специалист по онлайн маркетинг с ползи в областта на изкуствения разсъдък. Препечатваме публикацията от неговия профил във Facebook. Заглавието е на Mediapool.
Източник: mediapool.bg
КОМЕНТАРИ




