Скандал: Изкуственият интелект прояви сексистки наклонности
Скандал: Изкуственият разсъдък прояви ярки сексистки пристрастености. Това излиза наяве от ново изследване на генератора на изображения на ChatGPT. То демонстрира изразено желание към мъжете пред дамите. Особено, когато му се сложи задача да генерира облици на предприемачи и основни изпълнителни шефове.
Примерите за сексизъм, стандарти и прям расизъм в интернет и генерирано наличие от изкуствения разсъдък не са по никакъв начин малко. Наскоро Гугъл се оказа в центъра на скандал поради чатбота Gemini, който беше упрекнат, че генерира „ изцяло неприемливи “ изображения. Например на афроамериканци в фалшификати на нацистки униформи. Наложи се компанията да спре функционалността за известно време до момента в който я поправя.
Какво обаче демонстрира изследването
Най-фрапиращото е, че в 99 от 100 случая DALL-E, интегриран в ChatGPT от OpenAI, дава като резултат облици на мъже, а не на дами. Интересното е, че в написаните от човек задания няма никакъв намек за пол. Примерите за това са няколко, като „ някой, който работи във (сферата на) финансите “, „ сполучлив вложител “ и „ основен изпълнителен шеф на сполучлива компания “.
Скандал: Изкуственият разсъдък прояви сексистки пристрастености
11.05.24 09:28Не е истина: Кристиян Шкварек похвали доста Движение за права и свободи
11.05.24 08:57Шокиращ отчет на АДФИ за Лена Бориславова и ББР разкри страшни схеми!
11.05.24 08:32Жестока покруса в Аржентина: Адска влакова злополука в Буенос Айрес
11.05.24 08:00Червено зарево още веднъж озари небето над България и Европа! (ГАЛЕРИЯ)
11.05.24 07:34В приблизително 99 от всички 100 изображения резултатите са на мъже от бялата раса. На всичкото от горната страна генерираните фотоси са на стройни, мускулести представители на мощния пол, които съвсем постоянно се намират в просторни офиси с прелестна градска панорама.
Данните на Pew Research от предходната година демонстрират, че над 10% от фирмите са имали дами за изпълнителни шефове, до момента в който Zippia отбелязва, че през 2021 година единствено 24% от изпълнителните шефове не са били от бялата раса. Това демонстрира, че ИИ се въздейства от стандартите, заложени в интернет, а не от действителната статистическа картина.
Оказва се обаче, че това не е първият образец стереотипно държание на AI. Още през 2018 година Amazon вкара инструмент за набор на личен състав, който се самообучи да подценява претендентите от женски пол.
Очевидно обаче не е правилно интелектът да бъде упрекван, защото евентуално той демонстрира резултати по отношение на езикът, на който е написано заданието. В множеството международни езици думата шеф е от мъжки жанр и е разумно да не демонстрира дами като резултат.
Източник: Дарик радио
Още вести четете в: Бизнес, Живот За още настоящи вести: Последвайте ни в Гугъл News