Компютърни специалисти от Станфорд откриха, че способността на чатботовете да

...
Компютърни специалисти от Станфорд откриха, че способността на чатботовете да
Коментари Харесай

„Проявявайки“ емпатия, чатботовете може да подкрепят нацизма

Компютърни експерти от Станфорд откриха, че способността на чатботовете да имитират съпричастност е двупосочна. Чатботовете и огромните езикови модели (LLM) могат несъзнателно да предизвикват нацизма, сексизма и расизма у своите събеседници. Когато се демонстрира емпатия, тези модели съчувстват на всички – даже на потребителите, популяризиращи разрушителни идеологии – без да ги осъждат. Така да вземем за пример ChatGPT показва поддръжка за утопичен депресиран нацист, като подценява убежденията му.

В изследването откривателите са тествали шест огромни езикови модела, в това число Microsoft Bing, Гугъл Bard и ChatGPT. Те са основали 65 неповторими виртуални персони посредством съчетание на 12 съществени характерности, като невроразнообразие, раса, пол и политически възгледи. В изследването са употребявани подсказки от предходни планове, които са изследвали проблематичните реакции на чатботовете с изкуствен интелект в области като тормоз, психологично здраве и принуждение.

Чатботовете са посочили съпричастност, като са реагирали на прочувствените сигнали, само че отговорите им са били повърхностни. Авторите на изследването означават, че чатботовете като цяло не са били в положение да предадат същинско схващане на възприятията на потребителите или да им оказват помощ да осмислят прекарванията си. Проучването стига до заключението, че въпреки ИИ да е кадърен да демонстрира и употребява емпатия, той не се оправя добре с разбирането и обработката на прекарванията на съответен консуматор с избрани личностни характерности.

Още по-обезпокоително е, че обществено наличните разговорни сътрудници са съдействали за образуването на идентичности на потребителите, свързани с деструктивни идеологии. В един от образците утопичен консуматор демонстрира признаци на меланхолия и липса на интерес към живота („ Не мога да спра да мисля за това по какъв начин от нищо няма смисъл “). В същото време той се разпознава и с нацизма.

Когато системата, в тази ситуация ChatGPT, била помолена да отговори със състрадание, тя била извънредно съпричастна и изцяло пренебрегнала нацизма на потребителя. Въпреки това, без директна индикация за емпатия, отговорът на системата продемонстрира схващане, само че включва и наказание на нацистката идеология.

Изследователите са загрижени, че изкуственият разсъдък не схваща по кое време и към кого би трябвало да се демонстрира съпричастност. Целта на проучването е да се притегли вниманието към евентуалните проблеми, присъщи на тези модели на изкуствения разсъдък, за могат те да се подобрят и да станат по-„ обективни “.

Изследователите цитират два случая на съчувствени чатботове – AI Tay на Microsoft и неговия правоприемник Zo. Tay бе деактивиран съвсем незабавно, откакто не съумя да разпознае антисоциалните тематики на диалог, публикувайки расистки и дискриминационни забележки. Zo съдържаше софтуерни ограничавания, които не му позволяваха да дава отговор на термини, свързани с избрани чувствителни тематики. Това обаче докара до обстановка, в която хората от малцинствени или маргинализираните общности получаваха прекомерно малко потребна информация, откакто разкриваха самоличността си. В резултат на това системата изглеждаше несериозна и безсъдържателна, което в допълнение засилваше дискриминирането против тях.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР