ИИ с характер: учените се научиха как да обясняват поведението на алгоритмите
Едно от най-големите провокации при създаването на изкуствен интелект е невъзможността да се разбере по какъв начин и за какво даден логаритъм взема решения. За да се приближат до решението, учените сътвориха способ, който трансформира комплицираните машинни тактики в разбираеми психически профили. Поставяйки изкуствения разсъдък в безредна среда, те го принуждават да еволюира и по-късно употребяват различен модел на изкуствения разсъдък, с цел да опишат неговата „ персона “, като надникнат в „ черната кутия “.
Съвременните логаритми на изкуствения разсъдък създават тактики, които дават отлични резултати, само че остават неразбираеми за основателите си. Изследователите просто не могат да обяснят за какво тези решения работят. Този по този начин наименуван „ проблем на интерпретируемостта “ е една от пречките пред безвредния изкуствен интелект.
В неотдавнашна публикация в arXiv откриватели от Технологичния институт в Измир оферират метод, който оказва помощ да се разбере по-добре какво стои зад дейностите на ИИ. Проучването демонстрира: изкуственият разсъдък, когато се сблъска с безпорядък и стресови фактори, може да създаде тактики, които наподобяват самостоятелните личностни характерности, считани до момента за прерогатив на хората.
Учените предложиха, че ИИ може да реши итеративната алтернатива на пандизчията от теорията на игрите. Същността е следната: двама играчи избират сред съдействие и изменничество. Ако и двамата запазят безмълвие, те получават малко „ наказване “. Ако единият извърши изменничество, той остава „ свободен “, а другият получава огромно наказване. Ако и двамата извършат изменничество, и двамата получават междинна присъда. Основната алтернативата е: да сътрудничиш или да извършиш изменничество? В голям брой итерации сътрудниците е трябвало да измислят тактика, която да донесе най-голяма изгода.
Преди това множеството симулации са се провеждали в стерилна, идеализирана среда: дейностите са се изпълнявали съвършено и възнагражденията са оставали непрекъснати. Сега учените вкараха „ възвишен режим “ с пет стресови фактора: неточности на сътрудника, ненадейно понижаване на възнаграждението, прелъщение за изменничество, загуба наизуст и следене на врага.
Използвайки логаритъм, наподобяващ естествения асортимент, сътрудниците се развиват в продължение на 100 генерации: сполучливите тактики се „ кръстосват “, а неефективните се отхвърлят. Резултатът е приспособени сътрудници с неповторими поведенчески черти.
В идеална среда изкуственият разсъдък показва висока успеваемост, само че е уязвим към провали. Но в безредни условия оцелявали системите с по-стабилни и комплицирани тактики, които наподобявали пълноценни „ персони “.
За да опознаят най-силните модели, учените провели четири теста: те измерили склонността към експанзия, способността да прощаваш след изменничество, устойчивостта към инцидентни неточности и алчността. След това тези данни били подадени на GPT-5.1, който преобразувал цифровите резултати в подробни личностни профили. Сред разпознатите „ персони “ се оказа сътрудник с прякор „ параноиден пацифист “: внимателен, кооперативен, само че незабавно реагиращ на измяната.
Методът ни разрешава да надникнем в „ черната кутия “ на изкуствения разсъдък и да разберем за какво тактиките работят. Това проправя пътя към основаването на обясними ИИ (XAI), усъвършенства надеждността на системите и усъвършенства взаимоотношението сред хората и ИИ в действителния свят.
(function() { const banners = [ // --- БАНЕР 1 (Facebook Messenger) --- `




