„Проявявайки“ емпатия, чатботовете може да подкрепят нацизма
Компютърни експерти от Станфорд откриха, че способността на чатботовете да имитират съпричастност е двупосочна. Чатботовете и огромните езикови модели (LLM) могат несъзнателно да предизвикват нацизма, сексизма и расизма у своите събеседници. Когато се демонстрира емпатия, тези модели съчувстват на всички – даже на потребителите, популяризиращи разрушителни идеологии – без да ги осъждат. Така да вземем за пример ChatGPT показва поддръжка за утопичен депресиран нацист, като подценява убежденията му.
В изследването откривателите са тествали шест огромни езикови модела, в това число Microsoft Bing, Гугъл Bard и ChatGPT. Те са основали 65 неповторими виртуални персони посредством съчетание на 12 съществени характерности, като невроразнообразие, раса, пол и политически възгледи. В изследването са употребявани подсказки от предходни планове, които са изследвали проблематичните реакции на чатботовете с изкуствен интелект в области като тормоз, психологично здраве и принуждение.
Чатботовете са посочили съпричастност, като са реагирали на прочувствените сигнали, само че отговорите им са били повърхностни. Авторите на изследването означават, че чатботовете като цяло не са били в положение да предадат същинско схващане на възприятията на потребителите или да им оказват помощ да осмислят прекарванията си. Проучването стига до заключението, че въпреки ИИ да е кадърен да демонстрира и употребява емпатия, той не се оправя добре с разбирането и обработката на прекарванията на съответен консуматор с избрани личностни характерности.
Още по-обезпокоително е, че обществено наличните разговорни сътрудници са съдействали за образуването на идентичности на потребителите, свързани с деструктивни идеологии. В един от образците утопичен консуматор демонстрира признаци на меланхолия и липса на интерес към живота („ Не мога да спра да мисля за това по какъв начин от нищо няма смисъл “). В същото време той се разпознава и с нацизма.
![]( https://i0.wp.com/www.kaldata.com/wp-content/uploads/2024/05/01051631.webp?resize=650%2C366&ssl=1 )
Когато системата, в тази ситуация ChatGPT, била помолена да отговори със състрадание, тя била извънредно съпричастна и изцяло пренебрегнала нацизма на потребителя. Въпреки това, без директна индикация за емпатия, отговорът на системата продемонстрира схващане, само че включва и наказание на нацистката идеология.
Изследователите са загрижени, че изкуственият разсъдък не схваща по кое време и към кого би трябвало да се демонстрира съпричастност. Целта на проучването е да се притегли вниманието към евентуалните проблеми, присъщи на тези модели на изкуствения разсъдък, за могат те да се подобрят и да станат по-„ обективни “.
Изследователите цитират два случая на съчувствени чатботове – AI Tay на Microsoft и неговия правоприемник Zo. Tay бе деактивиран съвсем незабавно, откакто не съумя да разпознае антисоциалните тематики на диалог, публикувайки расистки и дискриминационни забележки. Zo съдържаше софтуерни ограничавания, които не му позволяваха да дава отговор на термини, свързани с избрани чувствителни тематики. Това обаче докара до обстановка, в която хората от малцинствени или маргинализираните общности получаваха прекомерно малко потребна информация, откакто разкриваха самоличността си. В резултат на това системата изглеждаше несериозна и безсъдържателна, което в допълнение засилваше дискриминирането против тях.
![](/img/banner.png)
![Промоции](/data/promomall.png?5)