„Трябва да изискваме повече контрол“: Как технологичните компании могат по-добре да се справят с проблема с пристрастията към AI?

...
Интернет обучените модели имат пристрастия в интернет мащаб“, казаха изследователи
Коментари Харесай

„Интернет обучените модели имат пристрастия в интернет мащаб“, казаха изследователи през 2020 г. - Авторски права Canva от Публикувано на 08/08/2023 - 10:23

Инструментите за изкуствен интелект (AI) – от алгоритми до генеративен софтуер – имат вградени пристрастия. И така, защо проблемът не е отстранен?

От години се признава, че инструментите за изкуствен интелект (AI), включително алгоритми за вземане на решения и генериращ софтуер, могат да имат подобни на човешките отклонения. И така, защо най-новите версии все още ги показват?

РЕКЛАМА

Отчасти големите езикови модели като оригиналния GPT на OpenAI се обучават върху обширни данни, така че познаването на източниците на отклонения може да бъде сложно .

Например, GPT е обучен на данни от интернет - подробностите за които не бяха разкрити. Собствените изследователи на OpenAI през 2020 г.: „Интернет обучените модели имат пристрастия в интернет мащаб; моделите са склонни да отразяват стереотипите, присъстващи в техните данни за обучение".

Сам Алтман казва, че "потенциално страшен" AI е на хоризонта. Това е, което държи експертите по AI будни през нощта

Когато GPT-3 беше пуснат, беше установено, че възпроизвеждат сексистки, расистки и религиозни стереотипи.

„Трябва да има мерки на етапа (на разработване) за идентифициране на потенциални пристрастия и за смекчаване и справяне с тях,“  сътрудник по етика в Public Policy Програма в Института Алън Тюринг, каза пред Euronews Next.

Глобалната общност настоява за повече прозрачност, включително разработване на изкуствен интелект. Изискванията за засилен контрол и отчетност за големите технологични компании нарастват, като целта е да се минимизират и адресират пристрастията проблеми.

"Мисля, че трябва да изискваме много повече контрол във фазата на разработка и много повече вид отчетност на големите технологични компании, за да знаем какво правят, за да сведат до минимум и да се справят с пристрастията", тя добавен.

И ако тези инструменти са толкова погрешни, защо изобщо бяха пуснати на обществеността?

„Пускането им беше продиктувано от търговска конкуренция, а не от стойност за обществото, “ каза Ейткен.

Инструментите за изкуствен интелект все още се разработват

Полагат се усилия за създаване на по-отговорен изкуствен интелект и това включва обучение от предишни версии на технологията.

Компаниите са въвели предпазни мерки за предотвратяване на злоупотреби, като API за модериране на OpenAI, който има за цел да маркира вредно съдържание.

„Трябва ли да възпроизвеждаме обществото такова, каквото е? Или трябва да представляваме обществото такова, каквото бихме искали да бъде? Но тогава, според чие въображение?“

Правителството на САЩ също помогна за координирането на хакерска конвенция тази година за публична оценка на системите за изкуствен интелект.

РЕКЛАМА

Мислете за това като за масивно упражнение на "червения отбор", за да проучите как нещата могат да се объркат - техника, широко използвана в киберсигурността.

Използвана е друга техника справянето с пристрастията е подсилващо учене от човешка обратна връзка, каза Giada Pistilli, етик в Hugging Face, пред Euronews Next.

Това кара човешките работници да преценяват резултатите от AI модела, за да постигне по-естествени и по-малко вредни резултати.

Но това е процес, който също е донякъде ограничен, като всеки човек носи своите собствени пристрастия.

За Pistilli трябва да се запитаме какво искаме от тези модели.

РЕКЛАМА

"Трябва ли да възпроизведем обществото такова, каквото е? Или трябва да представим обществото такова, каквото бихме искали да бъде? Но тогава, ако отговорът е вторият случай, според чие въображение?"

ИИ гигантите планират масово събитие за хакери, за да опитат да разбият системи като ChatGPT

Anthropic, компанията, основана от бивши изследователи на OpenAI, създаде свой собствен чатбот, Claude.

За да се уверят, че Claude ще се държи възможно най-подходящо, те го дариха с, който „черпи от набор от източници, включително Декларацията на ООН за правата на човека, доверие и безопасност най-добри практики и принципи, предложени от други изследователски лаборатории за AI", според блога на компанията.

"Когато тези модели бъдат пуснати, те не са завършени продукти. Така че те се пускат в публичното пространство, за да могат хората да ги използват, за да ги усъвършенстват допълнително, да ги тестват, за да разработят следващото повторение на модела“, каза Ейткен.

И така, когато хората използват тях, особено когато са свободно достъпни, нали знаете, тогава хората са част от процеса на разработка, без непременно да осъзнават това".

РЕКЛАМА

Компаниите за изкуствен интелект наистина ли са посветени на етиката ?

Компаниите, произвеждащи AI, публично рекламират, че имат екипи по етика, но някои казват, че е станало очевидно, че тези компании бързо ще заобиколят етиката в преследване на иновации.

Всички тези решения са човешки решения и никога няма да бъдат безпристрастни.

Ейткен казва, че имаме нужда от „подходи, които наистина гарантират отчетност“.

„И това не може да бъде просто нещо, което се прави зад затворени врати, където никой не знае дали наистина са направили нещо, за да се справят с проблемите или вредите, които са идентифицирани“, добави тя.

Позорното уволнение от Google на Timnit Gebru, co. -ръководител на екипа по етика на AI на компанията и Маргарет Мичъл, друг водещ изследовател на етиката, през 2021 г. доведе до проверка на ангажимента на технологичните компании към етиката.

също наскоро съобщи, че съкращенията в технологичните компании са имали сериозни повлия и на екипите по етика.

Според Пистили има нарастващо осъзнаване какво е заложено, когато става дума за пристрастия в ИИ.

„Мисля, че ще има нарастваща нужда от хора от социалните и хуманитарните науки, които се интересуват от тези въпроси“, казва тя.

Но AI е основно продукт на хората.

„Ценностите оформят решенията за това какви набори от данни да използвате, как се проектират моделите, за начините, по които са разработени или за функциите, за които се използват. Всички тези решения са човешки решения и никога няма да бъдат безпристрастни“, каза Ейткен.

Източник: euronews.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР