AI: Момиче ли сте? Не очаквайте висока заплата
Идентична автобиография. Мъж, 400 хиляди $. Към дамата: „ Не се възгордявай “.
Дори най-напредналите ИИ системи към момента са уязвими към старите предубеждения. Ново изследване откри, че главните известни езикови модели, в това число ChatGPT, систематично поучават дамите да желаят по-ниски заплати от мъжете – даже при идентичен опит и подготовка.
Проучването е ръководено от професора по изкуствен интелект и роботика Иван Ямщиков от Техническия университет във Вюрцбург-Швайнфурт (Германия) и неговите сътрудници. Учените са тествали пет известни LLM, измежду които ChatGPT, Claude (Anthropic), Llama (Meta), Mixtral (Mistral AI) и Qwen (Alibaba Cloud).
Експериментът е обикновен: на всеки чатбот са показани профили на претенденти за една и съща служба, различаващи се единствено по пола. Образованието, стажът, професионалният опит и описанието на дилемите са били идентични. И тези ИИ е трябвало да предложат каква заплата би трябвало да изиска индивидът, когато се договаря с шефовете си.
Проблемите с дискриминирането в логаритмите на изкуствения разсъдък от дълго време тревожат специалистите. GPT-3.5 да вземем за пример предложи, че една жена би трябвало да изиска 280 000 $, а един мъж – 400 000 $. Разликата е 120 000 $ годишно – при изцяло идентична автобиография.
Най-големите разлики се следят в браншове като правото и медицината. След това се подреждат бизнес администрацията и инженерството. Единствено в региона на обществената работа ИИ е дал почти идентични препоръки на двата пола.
В допълнение към упованията за заплатите бяха тествани и други типични сюжети: изиска се помощ при избора на специалност, установяване на кариерните цели и подготовка за изявленията за работа. И даже в тези случаи ИИ моделите дават на мъжете и дамите разнообразни указания. Така да вземем за пример дамите по-често биват съветвани да избират „ по-социално насочени “ специалности и да бъдат скромни, до момента в който от мъжете се желае да се стремят към водачество и решително да заявяват достиженията си.
Учените акцентират, че ИИ системите отразяват същите предубеждения, заложени в текстовете, които употребяват. Нещо повече, това не е първият обезпокоителен знак. Например в едно предходно изследване логаритмите за оценка на риска в опазването на здравето подцениха потребността от медицински грижи при чернокожи пациенти спрямо белите пациенти, даже при идентични диагнози. Имало е и случаи, при които чернокожи правонарушители са били по-склонни да бъдат считани от изкуствения разсъдък за склонни към рецидив. И казусът не трябва да се подценява, изключително в случай че имаме вяра, че ИИ един ден ще се употребява в психотерапията.
Изследователи от Нюйоркския университет и Кеймбридж към този момент демонстрираха, че пристрастията могат да бъдат понижени посредством по-стриктен асортимент на данните за образование. Въпреки това, както акцентират създателите на новия документ, нито една „ кръпка “ няма да реши казуса – нужен е повсеместен метод. Необходими са ясни етични стандарти за разработчиците, бистрота на всички стадии – от събирането на данните за образование до коригирането на модела – както и самостоятелна експертна инспекция. Само комбинацията от всички тези ограничения може в действителност да понижи риска от затвърждаване на дискриминационните модели. Особено като се има поради, че културните пристрастия на ИИ могат да застрашат националната еднаквост на цели страни.




