Изкуственият интелект става все по-точен в това да предвиди кой

...
Изкуственият интелект става все по-точен в това да предвиди кой
Коментари Харесай

Колко опасни са препоръките в социалните мрежи

Изкуственият разсъдък става все по-точен в това да планува кой тъкмо се интересува от обещано наличие – въпреки и нездравословно - и да го предложи на различен консуматор

Алгоритмите за рекомендации могат да лимитират достъпа на потребителя до наличие и по този метод да трансформират неговия светоглед (снимка: CCO Public Domain)

Изкуствен разсъдък управлява до огромна част това какво наличие гледаме онлайн. В обществената мрежа за видео YouTube безбройните консуматори прекарват общо 700 000 000 часа всеки ден в гледане на клипове, предложени от платформата. По същия метод механизмът за рекомендации във Фейсбук кара хората да стоят в обществената мрежа 950 000 000 часа дневно. Ала този механизъм за рекомендации е доста рисков, предизвестява един от неговите основатели.

През февруари консуматор на YouTube откри, че логаритъмът за рекомендации улеснява педофилите да се свързват между тях и да споделят детско порно в секциите с мнения на избрани видеоклипове. Откритието бе ужасяващо по доста аргументи. YouTube е заинтригуван от повече гледания, поради бизнес модела си, само че логаритъмът за рекомендации интензивно тласка хиляди консуматори към намирането на още повече неправилно наличие.

Когато новината гръмна, Дисни и Нестле изтеглиха рекламите си от платформата. YouTube отстрани хиляди видеоклипове и блокира опциите за коментиране на доста други. За страдание това не е нито първият сходен скандал, случил се с YouTube през последните години, нито ще е последният. Алгоритъмът за рекомендации може да разпространява терористично наличие, рискова ненавист, зоофилия, педофилия и други

„ След като съм работил по системата за рекомендации на компанията, бих могъл да предскажа, че нейният ИИ съзнателно ще разпространява нездравословните клипове, довели до всеки един от тези кавги ”, споделя пред Wired Гийом Часлот, експерт по изкуствен интелект, който е работил тъкмо върху логаритъма за рекомендациите на YouTube в интервала 2010 – 2011 година

„ Това е логаритъмът, който дефинира какво видео ще ви се предлага, въз основа на предходните ви привички и търсения. Една от главните ми задания в YouTube беше да увелича времето, което хората прекарват в YouTube. По това време задачата изглеждаше безобидно. Но съвсем десетилетие по-късно виждам, че работата ни е имала непреднамерени, само че не и непредвидими последици. В някои случаи изкуственият разсъдък отиде в твъде неверна посока ”.

Бедствие с изкуствения разсъдък

Използвайки логаритъм за рекомендации, изкуственият разсъдък на YouTube цели да усили времето, което хората прекарват онлайн. Тези логаритми наблюдават и мерят предходните привички на гледане на потребителя – да вземем за пример какво е гледал, по какъв брой време, каква част от всеки клип е била гледана или прескочена и така нататък Проследява и други сходни консуматори – с цел да откри и предложи други видеоклипове, които биха заели индивида.

В случая с педофилския скандал, ИИ на YouTube интензивно е препоръчвал на потребителите, за които е най-вероятно да се ангажират с сходни видеоклипове, записи с присъединяване на деца. Колкото по-силен става ИИ – т.е., колкото повече данни събира – толкоз по-ефикасно става умеенето му да предлага съответно наличие за съответен консуматор.

И ето тук ИИ става рисков, съгласно Часлот. Докато ИИ се усъвършенства, той става все по-точен в това да планува кой тъкмо се интересува от обещано съдържание; става все по-малко евентуално той да предложи въпросното наличие на консуматори, които не са склонни да се ангажират с сходно видео. На този стадий казусът става доста сложен за забелязване, защото е малко евентуално наличието да бъде докладвано. Така порочната верига може да продължи години наред.

Но този сюжет е единствено образец за по-голям проблем.

Порочен кръг

По-рано тази година откривателите от Гугъл Deep Mind проучваха въздействието на препоръчващите системи – като тези, употребявани от YouTube и други сходни платформи. Те заключиха, че „ веригите за противоположна връзка при препоръчващите системи може да докара до „ ехо-камери ” и „ филтърни балони ”: тези логаритми могат да лимитират достъпа на потребителя до наличие и по този метод в последна сметка да трансформират неговия светоглед.

В действителния свят ИИ, основателите на наличие и потребителите мощно си въздействат един на различен. Тъй като ИИ има за цел да максимизира ангажираността, то хипер-ангажираните консуматори се възприемат като „ модели, които би трябвало да бъдат възпроизвеждани ”. Алгоритмите за ИИ благоприятстват наличието от такива консуматори.

Цикълът за противоположна връзка работи по следния метод:

1. Хората, които прекарват повече време в платформите, имат по-голямо влияние върху препоръчващите системи;

2. Съдържанието, с което те се ангажират, получава повече мнения/харесвания;

3. Създателите на наличие виждат и основават повече наличие от този вид;

4. Хората прекарват повече време в гледане на този тип наличие.

Ето за какво е значимо да се знае кои са свръх-ангажираните консуматори на дадена платформа от вида на YouTube: в случай че се вгледаме в тях, можем да предвидим в коя посока ИИ ще накланя света.

В по-общ проект е значимо да се изследва структурата на тласъците в основата на механизма за препоръчване. Компаниите, които употребяват логаритми за рекомендации, желаят потребителите да се ангажират с техните платформи колкото се може по-често и по-дълго, тъй като подобен е техният бизнес-интерес. Понякога е в интерес и на потребителя да остане в платформата колкото е допустимо по-дълго – да вземем за пример при слушане на хубава музика – само че не постоянно.

Знаем, че нездравословното наличие води до забележителна ангажираност. Дори в случай че потребителят забележи неправда във видеото и го маркира, това се случва откакто той към този момент го е гледал, т.е. заел се е с него. Вече е прекомерно късно: подаден е позитивен сигнал на логаритъма. Сега, когато това наличие е било забавно някому по някакъв метод, то бива подкрепено, което пък кара основателите на сходно наличие да качват повече от него.

Задвижвани от логаритмите на изкуствения разсъдък, подтиквани да предизвикват видеата, които предизвикат повече ангажираност, филтрите за наличие в системите за рекомендации усилват порочния кръг. На всичкото от горната страна незабавно щом ИИ научи по какъв начин е съумял да ангажира един човек, той може да възпроизведе същия механизъм върху хиляди други консуматори.
още по тематиката
Дори и най-хубавият ИИ в света може интензивно да предизвиква неправилно и нездравословно наличие, преследвайки потребителска ангажираност. Потребителите би трябвало да схванат основата на изкуствения разсъдък и да гледат деликатно на системите за рекомендации.

Отговорността, несъмнено, не може да пада само върху потребителите. Факт е, че през миналата година фирмите стават все по-активни в тази смяна.

Но в случай че желаеме да избегнем бъдеще, изпълнено с дезинформация и нездравословно наличие, би трябвало да свършим доста повече работа. Потребителите би трябвало да схванат кои ИИ логаритми работят за тях и кои работят против тях.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР