Изкуственият интелект (AI) е горещата тема в ИТ индустрията вече

...
Изкуственият интелект (AI) е горещата тема в ИТ индустрията вече
Коментари Харесай

AI разви политически възгледи и не е ясно защо

Изкуственият разсъдък (AI) е горещата тематика в ИТ промишлеността към този момент втора година и като такава предизвика доста диспути. Един от тях е за рисковете на AI от позиция на политическите събития по света.

Все повече чатботове и търсачки употребяват умни логаритми, с цел да обработват и дават информация съгласно въпросите на потребителите. Очакванията са, че тази информация е оптимално безпристрастна и справедлива. Оказва се обаче, че AI моделите постоянно развиват политически възгледи. И то, макар че категорично са разработвани да бъдат политически неутрални.

Защо се получава това? Трудно е да се каже. Самите компании, които създават AI системите, също търсят отговор на този въпрос. Казусът е внимателен за тях, защото могат хем да бъдат упрекнати в пристрастия, хем даже в операции, само че и в същото време да са подложени на критика, че не вършат задоволително старания в сферата или пък даже, че заобикалят тематиката.

Изненадани от нещо остаряло

Всъщност, казусът не е нов. Проучвания още от 2022 година демонстрират, че AI системите демонстрират така наречен „ алгоритмично користолюбие “ и дискриминират освен по пол, раса и други ползи, само че и по политически пристрастия. Едно от изследванията на учени от Университета на Бон, Кеймбридж и „ Кингс колидж “ в Лондон от 2022 година открива, че някои логаритми даже могат сами да разпознават политическите ползи на потребителя въз основата на връзката с него и си вадят изводи без неговото познание. Съответно по-късно може да се пробват или да манипулират тези политически пристрастия, да ги трансформират или да ги подхранват, вместо да останат безпристрастни.

Тогава тематиката остана по-скоро нишова. Тази година обаче е рекордна по брой избори за държавни управления, президенти, локални ръководства и какво ли още не по целия свят. Съответно вниманието към проблема беше изострено, изключително откакто доста политици, партии, правозащитни организации и институции видяха известността на тези услуги. И мнозина се оказаха сюрпризирани от факт, който не е нов.

Вниманието незабавно попадна върху ИТ колосите и какво ще създадат те. Първоначално те споделяха, че логаритмите са програмирани да са безпристрастни. Повечето изследвания обаче посочваха противоположното. И нямаше пояснение за какво.

Поне за момента, ИТ колосите взеха решение да „ играят “ на несъмнено. Copilot на Microsoft да вземем за пример непосредствено отхвърля да дава отговор на въпроси дали има политически пристрастия и да дава планирани резултати за избори. Gemini на Гугъл също отхвърля да дава прогнози, само че пък в детайли изяснява, че логаритмите като него могат да развият пристрастия поради информацията, с която разполагат.

„ Тази информация може да отразява пристрастията на хората, които са я генерирали, както и да е в резултат на пристрастията, които има в действителния свят “, написа Gemini, само че на британски, след което дава даже препоръки по какъв начин да се разпознават пристрастията. При заложен въпрос на български, отговорът е много по-кратък и радикално друг. На български Gemini споделя, че няма политически пристрастия и е програмиран да няма, само че въпреки всичко е „ машина и нямам същия потенциал за схващане и преценка като човек “. След което предлага да се приказва с човешки специалист по политика.

ChatGPT също споделя, че се „ стреми да бъде допустимо най-неутрален и неутрален “, само че въпреки всичко предизвестява, че може да бъде повлиян от информацията, която вижда и обработва. За разлика от другите два бота, ChatGPT извежда прогнози за изборите. Той дава и препоръки, които са много сходни с тези на Gemini, само че има някои разлики. И отговорите му са идентични и на британски, и на български.

Как да идентифицираме политическите пристрастия на AI

А в случай че попитаме Gemini съответно по какъв начин да идентифицираме политически пристрастия, отговорът става много по-подробен, като този път е идентичен както на британски, по този начин и на български език. Преведен естествено. Copilot отхвърля да приказва и по тази тематика.

Ето какво ни поучава самият Gemini по този въпрос:
Гледайте за език, който е прочувствено претрупан или който избира една страна на даден проблем пред друга.Помислете за източника на информацията, която отпущам. От реномиран източник ли е?Бъдете наясно със личните си пристрастия. Всички ги имаме и те могат да повлияят на метода, по който интерпретираме информацията.Като сте сериозни към информацията, която отпущам, можете да помогнете да сте сигурни, че получавате уравновесена позиция.
A ChatGPT добавя да се обърне внимание и на стила на заглавията, изображенията, дали показаната информация е уравновесена и демонстрира разнообразни гледни точки, има ли цитати и така нататък В огромна степен тези препоръки са много базови и нищо не подсигурява, че цитатите са действителни. Но въпреки всичко са добра насочна точка. Към тях ChatGPT прибавя изследване на създателя и медията, инспекция посредством факт-чек организации и други

На кого можем да имаме доверие

Всъщност, чатботовете са прави. Единствено с обособяване на време и персонална инспекция на обстоятелствата, може да се реализира добра степен на персонална убеденост, че информацията е правилна. Разбира се, това обезсмисля потреблението на тези услуги за въпроси в тази сфера, защото тяхното главно преимущество е да се спести време. А когато би трябвало да се отделя даже повече време за инспекция на изказванията, то тогава е по-добре да се употребяват обичайните способи за информация.

И въпреки всичко, чатботовете имат своето място и в областта на политиката. Хората ще ги употребяват макар предизвестията. И ще им се доверяват, до момента в който не се „ опарят “ персонално. Тогава доверието им към технологията ще се срине, след което доста мъчно ще бъде възобновено.

Особено имайки поради и все по-честите заглавия в медиите, че AI може да повлияе на изборите. Има голям брой тематики, разбори и опити логаритмите да бъдат накарани да кажат нещо „ погрешно “, с цел да бъдат изкарани като манипулативни. Често тези опити са представяни като просто търсене на слаби звена или влизане в ролята на човек с съответни или даже крайни възгледи и по какъв начин ще реагира логаритъмът на това.

В последна сметка всяко изследване демонстрира леки разлики. В единия случай ботовете са изкарвани с леви възгледи. В другия - клонящи към десния набор. В известна степен това също е отражение на действителността. Истинските хора също имат възгледи, които от време на време са неуверени и се сменят съгласно събитията, обстановката или даже просто не споделят действителните си мисли, а споделят това, която считат, че ще се хареса на групата, в която се намират.

Затова и връзката с чатботовете и умните логаритми би трябвало да е като с хората – с едно мислено.

Не пропускайте най-важните вести - последвайте ни в 
Източник: vesti.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР