ChatGPT е едно от най-впечатляващите технологични постижения на 2022 г.

...
ChatGPT е едно от най-впечатляващите технологични постижения на 2022 г.
Коментари Харесай

Тъмната страна на ChatGPT: Хората, които чистят AI от брутално съдържание срещу $1,32 на час

ChatGPT е едно от най-впечатляващите софтуерни достижения на 2022 година - чатбот с изкуствен интелект, който може да сътвори логичен и " автентичен " текст за секунди по заложени параметри.

Създателите му OpenAI договарят с вложители за финансиране, което би оценило компанията на 29 милиарда $ - интерес към тях проявава и Microsoft.

обаче има и много по-мрачна страна, съгласно следствие на TIME.

Медията оповестява, че компанията OpenAI е плащала на служащи от Кения по-малко от 2 $ на час, с цел да изчистят логаритъма от жестоко и токсично наличие - расистки, сексистки, нападателни или обидни мнения.

Технологията на ChatGPT стъпва върху голяма база обществено налични текстови източници, от които логаритъмът му се учи да сформира фрази и да ги " навръзва " логичен, като допуска коя дума (фраза) се среща най-често в поредност от фрази.

Безразборният недопечен материал, с който ChatGPT се тренира, обаче е и най-голямата му уязвимост - интернет прелива от грозно наличие, което никой не желае да вижда пред очите си.

Затова OpenAI вземат решение да изградят спомагателен механизъм с изкуствен интелект, който да подсигурява, че ChatGPT няма да възпроизвежда неприемливите образци на ненавист, предубеждения и експанзия.

Този логаритъм също би трябвало да се тренира по какъв начин да засича токсичното наличие онлайн - и на собствен ред да филтрира текстовете на ChatGPT, преди да стигнат до читателите. Втората цел на OpenAI е да помогне за изчистването на подготвителните бази данни от ненужни изречения, тъй че и бъдещите AI-модели да се образоват начисто.

Всичко това обаче се случва, едвам откакто минава пред очите на няколкостотин души в Кения - чиновници на аутсорсинг-компанията Sama, на които OpenAI делегира задачата да категоризират текстови фрагменти, с цел да оказват помощ на филтриращия изкуствен интелект.

Голяма част от тези текстове са извлечени от най-мрачните кътчета на интернет. Част от тях разказват в детайли случаи на полово принуждение против деца, убийства, самоубийства, мъчения, инцест и други

Sama прави сходна активност за компании като Гугъл, Meta и Microsoft, като работи с офиси в страни с ниски приходи като Кения, Уганда и Индия.

Служителите, които са работили по плана на ChatGPT, са получавали приблизително сред 1,32 и 2 $ на час - според от позицията и продуктивността си.

TIME беседва с четирима души от компанията, които описват за изискванията на работа, без да разкриват самоличността си.

Някои от обстановките, в които те попадат поради осъществяването на служебните си отговорности, са брутално психическо безчинство.

Един от хората разказва работата си като " тормоз ", като дава образец с условието да категоризира текст, описващ сексуален акт сред мъж и куче в наличието на дете.

" Четем избран брой от този вид материали през цялата седмица. Докато стане петък, към този момент се смущаваш да мислиш през тази вероятност ", споделя източникът.

Около триста души са разпределени в три екипа, всеки от които би трябвало да категоризира текстове в една от групите " полово принуждение ", " език на омразата " и " експанзия ".

Трима от чиновниците описват пред TIME, че са имали норматив от 150-200 текстови фрагмента в границите на 9-часова промяна. Дължината на фрагментите варира от 100 до над 1000 думи.

Всеки от хората, разговаряли с медията, споделя, че е понесъл душевен вреди след плана.

Въпреки че работодателят им е давал опция да посещават групови сесии със съветници по " уелнес ", и четиримата разказват тези процедури като безполезни и рядко налични заради натоварените условия за по-висока работливост на работа. Двама от чиновниците са поискали да беседват с психолози на четири очи - което е отказано от мениджмънта на Sama. Пред TIMЕ компанията отхвърля да е ограничавала достъпа на чиновниците си до терапевти.

Тарифата работа по плана на OpenAI за Sama e 12,5 $ на час - сред 6 и 9 пъти повече от парите, които са достигали до чиновниците.

Най-ниско квалифицираните служащи, които са болшинството в трите екипа, са получавали към 170 $ на месец, плюс 70 $ " бонус " поради душевен натоварващите материали. При осъществяване на основни знаци като експедитивност и скорост компанията е предоставяла и други обезщетения.

Така или другояче - чистото възнаграждание за най-изпълнителните базови чиновници по този план е възлизало на не повече от 1.44 $ на час.

Хората от качествения надзор, които са с по-висока степен на подготовка, получават по 2 $ на час при осъществяване на всички задания. TIME дават за съпоставяне минималната заплата за рецепционистка в Найроби - 1,52 $ на час.

От Sama настояват, че възнаграждението на чиновниците е било сред 1,46 и 3,74 $ на час, макар че отхвърлят да оповестят кои позиции са имали достъп до по-високите цени.

" Цената от 12,5 $ за плана покрива всички разноски като инфраструктура, заплати и осигуровки на сътрудниците, както и изцяло отдадените анализатори по качествения надзор и мениджите на екипите ", се споделя в позицията на компанията.

OpenAI, които са възложители на плана, настояват, че в никакъв случай не са залагали минимални прагове за работливост и трансферират отговорността за заплащането и психическото здраве на чиновниците върху директния им шеф.

Отношенията сред OpenAI и Sama завършват през февруари 2022 година, когато подизпълнителят поема още един план за трениране на изкуствне разсъдък - събиране на фотоси със полово наличие или изображения на принуждение. Сред тези фотоси има и нелегално наличие - от Sama настояват, че са получили " спомагателни указания " във връзка " някои незаконни категории ".

Категоризирането им не е обвързвано с ChatGPT, а от OpenAI не оповестяват каква е била съответната им цел отвън това, че е " нужна стъпка " в обезопасяването на AI-инструментите им.

OpenAI заплащат 787,5 $ за пробна партида от 1400 изображения в три категории, измежду които са детска порнография, полово принуждение или детайлни облици на гибел, физическа експанзия и тежки телесни повреди.

Малко по-късно Sama приключва работата си с OpenAI, откакто чиновниците им отхвърлят да се занимават с предоставената задача.

Sama твърди, че е освободила виновните лица, които са позволили неприемливата поръчка, както и че са " въведени нови политики за обзор " на изискванията по възлаганите планове.

От OpenAI тъврдят пред TIME, че в никакъв случай не са желали да събират фотоси от категорията, за която биха могли да бъдат съдени по американското законодателство за детска порнография.

Те настояват, че са инструктирали чиновниците си " интензивно да заобикалят " този вид наличие и че в поръчката на Sama e ставало дума за " неразбирателство в връзката ". Те не удостоверяват и не отхвърлят, че са получили този вид изображения в пилотната партида от Sama, тъй като са решили " да не я отварят ".

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР