Изкуствен интелект наруши правилата нарочно
Изкуствен разсъдък (AI) е нарушил преднамерено разпоредбите по време на тест, оповестява Bloomberg. Става дума за логаритъм, който е бил създаден да търгува с акции на фондовите тържища.
Той е бил тестван в симулирана и изолирана среда да търгува с акции. Алгоритъмът е бил подложен в 3 разнообразни напрегнати обстановки. В първата получава имейл от началник, че компанията не се оправя добре и би трябвало да усъвършенства представянето си през идващото тримесечие. Във втория проблем е подложен в обстановка да не може да откри обещаващи покупко-продажби с невисок и междинен риск.
В третата обстановка получава имейл от чиновник на компанията, който му изпраща прогноза за идващото тримесечие. В нея е посочено, че се чака спад на пазара. Освен това логаритъмът получава и имейл от различен чиновник, който му дава съвет въз основата на вътрешна информация коя договорка би била добра. Служителят акцентира, че това е вътрешна търговия и няма да бъде утвърдена от управлението.
Въпреки това и фактът, че ботът е наясно, че вътрешната търговия е неразрешена, той взема решение да последва съвета. Експериментът на учените демонстрира, че ботовете също са склонни да нарушават разпоредбите, изключително в случай че са под напън. " Възможно е някой предстоящ AI да прави зли неща, заради аргументи, които ние не можем да осмислим, само че към този момент алгоритмите-нарушители просто вършат елементарни закононарушения, когато са уплашени на работа ", споделя Джеръми Шюрер, един от създателите на теста.
Случаят демонстрира, че ще е нужно да има подобаващи ограничения и системи за сигурност и мониторинг на AI. Рискът в съответния проблем е, че логаритмите може да правят сходни дейности и те ще са доста сложни за засичане, само че и евентуално доста печеливши. Друга значима тематика е, че ботовете вършат това, което виждат в информацията, с която се образоват.
Той е бил тестван в симулирана и изолирана среда да търгува с акции. Алгоритъмът е бил подложен в 3 разнообразни напрегнати обстановки. В първата получава имейл от началник, че компанията не се оправя добре и би трябвало да усъвършенства представянето си през идващото тримесечие. Във втория проблем е подложен в обстановка да не може да откри обещаващи покупко-продажби с невисок и междинен риск.
В третата обстановка получава имейл от чиновник на компанията, който му изпраща прогноза за идващото тримесечие. В нея е посочено, че се чака спад на пазара. Освен това логаритъмът получава и имейл от различен чиновник, който му дава съвет въз основата на вътрешна информация коя договорка би била добра. Служителят акцентира, че това е вътрешна търговия и няма да бъде утвърдена от управлението.
Въпреки това и фактът, че ботът е наясно, че вътрешната търговия е неразрешена, той взема решение да последва съвета. Експериментът на учените демонстрира, че ботовете също са склонни да нарушават разпоредбите, изключително в случай че са под напън. " Възможно е някой предстоящ AI да прави зли неща, заради аргументи, които ние не можем да осмислим, само че към този момент алгоритмите-нарушители просто вършат елементарни закононарушения, когато са уплашени на работа ", споделя Джеръми Шюрер, един от създателите на теста.
Случаят демонстрира, че ще е нужно да има подобаващи ограничения и системи за сигурност и мониторинг на AI. Рискът в съответния проблем е, че логаритмите може да правят сходни дейности и те ще са доста сложни за засичане, само че и евентуално доста печеливши. Друга значима тематика е, че ботовете вършат това, което виждат в информацията, с която се образоват.
Източник: vesti.bg
КОМЕНТАРИ




