Роботите могат да развият предразсъдъци също като хората
Тълковният речник дефинира думата „предразсъдък“ като голословна преднамереност, отрицателна настройка на индивида по отношение на нещо. Ключовото в тази формулировка, несъмнено, е това, че въпросното преждевременно основано и постоянно неаргументирано мнение се поражда у хората. Според учени от Разузнавателна служба на Турция и Университета на Кардиф обаче, захранваните с изкуствен интелект роботи също могат да развият предубеждения като се учат един от различен.
AI постоянно има комплицирани взаимоотношения с расизма и сексизма и видяхме предходни случаи на изкуствен интелект, който демонстрират такива предубеждения, както направиха две чатбота на Microsoft през последните няколко години. Въпреки това, това изследване сподели, че AI е в положение самичък да образува предубеждения. Изследователите пишат, че „групи от самостоятелни машини могат да показват фатализъм, като просто разпознават, копират и учат това държание един от друг“.
Учените са основали симулирана игра, в която всеки AI бот избира да подари познание на различен в личната си група или друга група, въз основа на репутацията на всека бот и избрани дарителски тактики. Изследователите откриват, че роботите от ден на ден непредразположени към тези от други групи.
Над хиляда симулации по-късно, роботите са научили нови тактики, които копират между тях или в личните си групи, или измежду цялата маса. Изследването открива, че роботите са загърбили тактики, които им дават по-добра възвръщаемост в кратковременен проект, което демонстрира, че не е належащо безусловно да се развиват когнитивни качества, с цел да се развият предразсъдъците.
„Нашите симулации демонстрират, че предразсъдъците са мощна мощ на природата и посредством еволюцията, те елементарно могат да бъдат подтиквани във виртуалното население , в ущърб на по-широката съгласуваност с другите“, написа проф. Роджър Уитакър от Университета в Кардиф, един от съавторите на проучването.
AI постоянно има комплицирани взаимоотношения с расизма и сексизма и видяхме предходни случаи на изкуствен интелект, който демонстрират такива предубеждения, както направиха две чатбота на Microsoft през последните няколко години. Въпреки това, това изследване сподели, че AI е в положение самичък да образува предубеждения. Изследователите пишат, че „групи от самостоятелни машини могат да показват фатализъм, като просто разпознават, копират и учат това държание един от друг“.
Учените са основали симулирана игра, в която всеки AI бот избира да подари познание на различен в личната си група или друга група, въз основа на репутацията на всека бот и избрани дарителски тактики. Изследователите откриват, че роботите от ден на ден непредразположени към тези от други групи.
Над хиляда симулации по-късно, роботите са научили нови тактики, които копират между тях или в личните си групи, или измежду цялата маса. Изследването открива, че роботите са загърбили тактики, които им дават по-добра възвръщаемост в кратковременен проект, което демонстрира, че не е належащо безусловно да се развиват когнитивни качества, с цел да се развият предразсъдъците.
„Нашите симулации демонстрират, че предразсъдъците са мощна мощ на природата и посредством еволюцията, те елементарно могат да бъдат подтиквани във виртуалното население , в ущърб на по-широката съгласуваност с другите“, написа проф. Роджър Уитакър от Университета в Кардиф, един от съавторите на проучването.
Източник: kaldata.com
КОМЕНТАРИ