Религиозните конфликти много често водят до насилие. В опит да

...
Религиозните конфликти много често водят до насилие. В опит да
Коментари Харесай

Изкуствен интелект ще се бори с религиозната омраза

Религиозните спорове доста постоянно водят до принуждение. В опит да се реши този проблем, учени от Оксфорд са създали изкуствен интелект, който да планува сходни спорове и да оказва помощ за тяхното попречване, оповестява БиБиСи.

Технологията към този момент даже се тества в Норвегия и Словакия, където тя проучва рисковете от увеличението на мюсюлманите в двете страни, които идват с имигрантската вълна. Учените желаят технологията да може да се употребява и при отреагирането на разнообразни произшествия, в това число терористични офанзиви.

За момента изкуственият разсъдък е тестов, като не е подготвен за използване в всекидневието. Все отново капацитетът е налице. Разработката е основана на изследвания, че човек по природа е спокойно създание. В моменти на рецесия и злополучие търси поддръжка и предлага поддръжка и нормално хората се сплотяват по кротичък метод.

Разбира се, има и изключения. Има обстановки, в които хората са склонни на принуждение, когато техните най-исконни полезности и вярвания, които дефинират идентичността им, се окажат подложени на критика, оспорени или нападнати от друга група. Учените са употребявали и наученото от така наречен " Проблеми в Северна Ирландия ", които са основали " ксенофобска обществена тревога ", която може да ескалира до рисково принуждение, когато спорът е нескончаем.

Изкуственият разсъдък е прибавен на компютърни модели на няколко разнообразни сходни спора през годините. Резултатите демонстрират, че колкото по-дълго и постоянно вярванията на дадена група хора са атакувани, толкоз повече те губят дарба да се оправят. Това усилва вероятността от изблик на принуждение. Въпреки това, логаритъмът демонстрира, че при сходни обстановки до принуждение се доближава единствено в 20% от тестваните модели.

Учените считат, че това демонстрира, че религиозното принуждение не е част от същността на човек. " Всъщност то се случва рядко в историята ", счита Джъстин Лейн, създател на изследването. " Може би е допустимо да накараме душeвността си да приема другите като част от групата ни в моменти, когато бихме се поддали на по-първични страхове ", счита Лейн.

Според него и екипа му, изкуственият разсъдък може да помогне за засичането на групи, които може да се усещат прекомерно нападнати или застрашени. Алгоритъмът обаче може единствено да покаже групата и аргументите, както и да даде насоки за решение на казуса. Реалното решение на обстановката ще зависи от всички участници в нея.

Една опция е да се основават обстановки, които да оказват помощ на хората да не виждат като опасност тези, които са " външни " и не са част от тяхната група или общество. Най-големите опасности са, когато хората постоянно попадат на " външни " и ги възприемат като рискови. Дори не е нужно сходни срещи да са очи в очи, а е задоволително попадането на неприемливи за дадения човек изявления в обществените мрежи. " Живеем в лични осведомителни балони, само че все пак получаваме доста информация от и за външни хора, като тази информация може да задейства тези реакции даже и когато няма действителен човек насреща. Просто концепцията за опасност може да бъде задоволително мощна като действителна опасност и да провокира реакция ", разяснява Лейн.
Източник: marica.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР