Предаването на властта от хората към технологиите дава повече власт

...
Предаването на властта от хората към технологиите дава повече власт
Коментари Харесай

Когато машинното обучение полудее

Предаването на властта от хората към технологиите дава повече власт на платформите за обществени медии да вземат решение какво е и какво не е уместно наличие

Мнозина усетиха казуса – бяха им неразрешени значими и съществени изявления
(снимка: CC0 Public Domain)

На 17 март вечерта екипът от модератори, виновен за наблюдението на наличието на YouTube в централата на Accenture в Дъблин, получава известие, че офисът затваря. Разпространението на Covid-19 е рисково и компанията взема сложното решение, че те не може да продължат да работят от офиса на компанията – едно от тези огромни пространства с отворен проект, където има стотици бюра в една зала…

Служителите са изпратени у дома. Условията на техните контракти гласят, че служащите не могат да продължат да правят работата си отдалечено, въпреки че става дума за 500 часа видео, качвани всяка минута в платформата. Налице е всеобщата настройка за приемане на неизбежното, изяснява пред Wired един от работещите в центъра с ангажимента да остане неизвестен. Той и неговите сътрудници биват уверени, че ще бъдат подкрепени финансово, до момента в който офисът е затворен.

Тайната войска

Модераторите на YouTube и други сходни огромни уеб сайтове са „ тайната войска ”, която поддържа обществените мрежи относително чисти. Зле платени и постоянно преуморени, задължени да извършват безчовечен високи правила, те правят грубата работа по филтрирането на „ подозрително ” наличие. Те би трябвало да преценят кое наличие е задоволително съгласно разпоредбите на съответните уеб страници, преобладаващи нашия цифров свят.

Около 10 000 такива индивида работят по продуктите на Гугъл. Около 30 000 са наети за наблюдението на Фейсбук. През последните две години броят им фрапантно се е нараснал, тъй като софтуерните компании са подложени на остри рецензии поради проблемите в своите процеси.

Този деликатен човешки труд постоянно бива омаловажаван от софтуерните компании, промотиращи своите „ автоматизирани системи за мониторинг ” – ботове, които имат задачата да алармират и отстраняват неуместно наличие. Но ето, че в този момент сме на път да осъзнаем какъв брой са значими хората-модератори.

„ Превъртяло ” антиспам предписание

Много хора в последните дни са забелязали казуса. Опитват се да споделят в обществените медии забавни и значими публикации по отношение на ковид – освен това от авторитетни и уважавани източници – но изявленията им биват маркирани като спам. Това ядосва и даже вбесява някои консуматори.

„ Анонимник е докладвал, че мои постове нарушават разпоредбите на общността и те са блокирани. Става дума за споделени публикации от BBC по настоящата тематика ”, сюрпризиран е Огнян Дренски. Той не е единственият. Много хора, които са се пробвали да споделят значими, в действителност новинарски истории и информация за ковид, са видели по какъв начин изявленията им задействат филтрите на Фейсбук против спам, с цел да „ поддържат стандартите на общността ”.

Алекс Стамос, някогашен изпълнителен шеф на Фейсбук, написа в Twitter, че това е „ антиспам предписание ”, което „ е превъртяло ”. „ Може би виждаме началото на процеса, в който [машинното самообучение] полудява без човешки контрол ”.

Това е проблем, за който Марк Зукърбърг загатва в конферентен диалог на 18 март. „ Дори и в най-хубавите обичаи на свободата на изложение, от дълго време има казус, който не разрешава хората да стрелят огън в претъпкана стая. Мисля, че това е сходно на хората, разпространяващи рискова дезинформация по време на зараза ”.

Добра и неприятна информация

Изводът – до който стига и YouTube – е елементарен: по-добре е случайно/погрешно да се потисне разпространяването на „ добра ” информация, с цел да се подсигурява, че „ неприятната ” информация няма никакъв късмет да тръгне. Екипът на YouTube признава, че „ потребителите и основателите на наличие може да виждат нараснал брой премахвания на видеоклипове, в това число такива, които… не нарушават разпоредбите ”.

Липсва първокласен човешки контрол

Хората са вбесени. Нормално е софтуерните компании да създават системи на база изкуствен интелект за решение на значимите проблеми, споделя Джулия Реда, някогашен зелен евродепутат, която от дълго време се застъпва за по-добър надзор над софтуерните компании. Но, съгласно нея, „ софтуерните компании са зле оборудвани – липсва им първокласен човешки контрол ”.

„ Тези известия демонстрират, че фирмите за обществени мрежи са пределно наясно, че филтрите за ново наличие са неспособни да разграничат законното от противозаконното наличие. Грешките систематично водят до дискриминация, да вземем за пример тъй като наличието на арабски език е непропорционално маркирано като „ терористично ”. В обстановки на рецесия, каквато имаме в този момент, държавните управления и фирмите откриват правила, които в противоположен случай биха били немислими. Трябва да сме бдителни, с цел да подсигуряваме, че те не стават новата норма ”, споделя Реда.

Вицепрезидентът на Фейсбук по интегритета Гай Росен скоро разгласи, че първичният проблем е отхвърлен. „ Възстановихме всички изявления, които бяха отстранени погрешно, в това число изявления по всички тематики – освен тези, свързани с Covid-19 ”, оповести той в Twitter на 18 март. „ Това беше проблем с автоматизирана система, която отстранява връзките към зловредни уеб страници, само че погрешно отстрани и доста други изявления ”.

Много хора обаче му дават отговор с образци по какъв начин логаритъмът на Фейсбук ги е известил за „ нарушение на стандартите на общността ” даже откакто той декларира, че всичко е поправено. Изглежда ще мине още известно време, преди в действителност казусът да бъде поправен. „ Фейкбук одеве си посипа главата с пепел, че са ми блокирали постове простъпка. Част от тях са възстановили. Приемам извиненията ”, показа Огнян Дренски в своя профил във Фейсбук на 20 март.

„ Това е като всяка друга история за Фейсбук през последните 10 години ”, споделя Дженифър Коб, теоретичен помощник и учител в Университета в Кеймбридж, която следи и учи модерирането на наличието. „ Казват, че са го поправили, само че то към момента не работи. Не мисля, че някой може да има вяра на способността на Фейсбук да се оправи с това ”.

Ограниченият изкуствен интелект

Колкото и да се кълнат, че усъвършенстват логаритмите, огромните софтуерни компании все не смогват да създадат изкуствения разсъдък задоволително образован. „ Изкуственият разсъдък не може – и в никакъв случай няма да може – да модерира съвършено ”, споделя Изабел Джерард от Университета в Шефилд, която учи модерацията на наличието в обществените медии.

„ Не можете да автоматизирате нещо толкоз комплицирано като човешкото взаимоотношение. Виждали сме безчет образци за неточности в модерирането въз основа на изкуствен интелект като премахването на новинарски публикации и изявления за Covid-19 през последните няколко дни ”, добавя тя.

Коб намира устрема към по-автоматизирано модериране на наличието за „ евентуално доста тревожно ”. Тя се тревожи по две аргументи: първо, предаването на властта от хората към технологиите дава повече власт на платформите за обществени медии да вземат решение какво е и кое не е уместно наличие – вместо държавния контрол ”.

Другото е по-простичък софтуерен проблем. „ Системите не са подготвени за такава работа и в действителност не могат да заменят хората ”, споделя Коб. „ Добре открито е, че логаритмите отразяват пристрастията на своите основатели, вследствие на което са нужни хора-модератори за унищожаване на някои от най-възмутителните пристрастия ”.

Неутолима жадност за облага

Според Коб, промишлеността е достигнала този миг поради неутолимата си жадност за облага. „ Едно от нещата е, че софтуерните компании се пробват да преследват мащаба. Те се пробват да станат допустимо най-големи. Търсят да лапнат толкоз доста наличие, колкото е допустимо [да се създаде]. След като доближат избран мащаб, е доста мъчно да вършат [модерация] с хората, тъй като би трябвало да наемат толкоз доста хора, че им става доста скъпо. Затова се обръщат към изкуствения разсъдък, с цел да се опитат да заменят тези хора и да продължат да преследват мащаба ”.

По нейните думи, в обстановки като сегашната светът осъзнава какъв брой е значима човешката роля за развиването на изкуствения разсъдък. Прогнозата й обаче не е изключително оптимистична. „ Вероятно ще забележим още по-големи проблеми с модерирането на наличието, в сравнение с сме видели до момента. И споделям това с ясното схващане, че има много проблеми и със самото човешко модериране ”.
Източник: technews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР