Две седмици след като членове на Конгреса разпитаха главния изпълнителен

...
Две седмици след като членове на Конгреса разпитаха главния изпълнителен
Коментари Харесай

Забравете за апокалипсиса на изкуствения интелект. Истинските опасности вече са тук

Две седмици откакто членове на Конгреса разпитаха основния изпълнителен шеф на OpenAI Сам Олтман за капацитета на инструментите на изкуствения разсъдък да популяризират дезинформация, да нарушават изборите и да изместват работни места, той и други представители на промишлеността оповестиха една доста по-страшна опция: апокалипсис на изкуствения разсъдък.

 Олтман, чиято компания стои зад вирусния чатбот ChatGPT, се причисли към основния изпълнителен шеф на Гугъл DeepMind Демис Хасабис, основния механически шеф на Microsoft Кевин Скот и десетки други откриватели на ИИ и бизнес водачи, които предишния месец подписаха писмо с едно изречение, в което се споделя " Намаляването на риска от изгубване, породено от ИИ, би трябвало да бъде световен приоритет наред с други опасности от публичен мащаб като пандемиите и нуклеарната война. "

Суровото предизвестие беше необятно отразено в пресата, като някои изрекоха мнение, че то демонстрира нуждата от по-сериозно отношение към сходни апокалиптични сюжети. Но то също по този начин акцентира една значима динамичност в Силициевата котловина сега: В същото време се надпреварват да влагат в тази технология и да я внедряват в артикули, които доближават до милиарди хора.

Тази динамичност в последно време се демонстрира и на други места. Например основният изпълнителен шеф на Tesla Елон Мъск съобщи в телевизионно изявление през април, че ИИ може да докара до " заличаване на цивилизацията ". Но той към момента остава надълбоко зает с технологията посредством вложения в своята разрастваща се бизнес империя и съобщи, че желае да сътвори съперник на предложенията за ИИ на Microsoft и Гугъл.

 

Според някои специалисти в региона на ИИ вниманието към далечни сюжети може да се отклони от по-непосредствените вреди, които новото потомство мощни принадлежности на ИИ може да аргументи на хората и общностите, в това число разпространение на дезинформация, затвърждаване на предубеждения и основаване на условия за дискриминация в разнообразни услуги.

 

" Мотивите наподобяват смесени ", споделя пред CNN Гари Маркъс, откривател на ИИ и почетен професор на Нюйоркския университет, който предишния месец свидетелства пред законодателите дружно с Алтман. Според него някои от изпълнителните шефове евентуално са " откровено обезпокоени от това, което са отприщили ", само че други може би се пробват да насочат вниманието към " нереални благоприятни условия, с цел да отклонят вниманието от по-непосредствените благоприятни условия ".

 

Представители на Гугъл и OpenAI не са дали отговор незабавно на молбата за коментар. В изказване представител на Microsoft сподели: " В момента се работи по този въпрос: " Оптимистично настроени сме за бъдещето на ИИ и считаме, че достиженията на ИИ ще решат доста повече провокации, в сравнение с съставляват, само че също по този начин сме поредни в убеждението си, че когато създавате технологии, които могат да трансформират света, би трябвало също по този начин да гарантирате, че технологията се употребява отговорно. "

 

Непосредствени проблеми против " мислени научнофантастични сюжети

 

За Маркъс, самоопределящ се като критик на хипотезата за ИИ, " най-голямата непосредствена опасност от ИИ е опасността за демокрацията от всеобщото произвеждане на безапелационна дезинформация ".

 

Инструментите за генеративен ИИ като ChatGPT и Dall-E на OpenAI се образоват на големи масиви от данни онлайн, с цел да основават безапелационни писмени творби и изображения в отговор на подкани от потребителите. С помощта на тези принадлежности да вземем за пример може бързо да се имитира стилът или образът на обществени персони в опит да се основат акции за дезинформация.

 

В показанията си пред Конгреса Олтман също по този начин съобщи, че капацитетът за потребление на изкуствен интелект за манипулиране на гласоподаватели и ориентиране на дезинформация са измежду " областите, които ме тревожат най-вече ".

 

Дори и в по-обикновени случаи на потребление обаче има опасения. Същите принадлежности са били упреквани в предложение на неверни отговори на потребителски запитвания, искрено " халюциниране " на отговори и евентуално затвърждаване на расови и полови предубеждения.

 

 

 

Емили Бендер, професор във Вашингтонския университет и шеф на Лабораторията за компютърна филология, съобщи пред CNN, че някои компании може би желаят да отклонят вниманието от пристрастията, заложени в техните данни, както и от изказванията за метода, по който системите им са подготвени.

 

Бендър цитира опасения, свързани с интелектуалната благосъстоятелност на някои от данните, върху които се образоват тези системи, както и изказвания, че фирмите са упълномощили работата по обработката на някои от най-лошите елементи от данните за образование на нископлатени служащи в чужбина.

 

" Ако обществеността и регулаторните органи могат да се съсредоточат върху тези мислени научнофантастични сюжети, тогава може би тези компании ще могат да се измъкнат от кражбата на данни и експлоататорските практики за по-дълго време ", сподели Бендер пред CNN.

 

Оказване на въздействие върху регулаторите

 

Регулаторните органи може би са същинската целева публика на известията на софтуерната промишленост за ориста.

 

По думите на Бендър, изпълнителните шефове всъщност споделят: " Тези неща са доста, доста рискови и ние сме единствените, които схващат по какъв начин да ги лимитират ".

 

Ако се съди по появяването на Олтман пред Конгреса, тази тактика може да проработи. Олтман наподобява завоюва Вашингтон, като повтори опасенията на законодателите по отношение на ИИ - технология, която мнозина в Конгреса към момента се пробват да схванат - и предложи оферти по какъв начин да се оправим с нея.

 

Този метод към регулирането би бил " извънредно спорен ", сподели Бендер. Той би могъл да даде на промишлеността въздействие върху регулаторите, натоварени да я държат виновна, а също по този начин да остави без внимание гласовете и приноса на други хора и общности, които изпитват отрицателното влияние на тази технология.

 

" Ако регулаторите се ориентират към хората, които основават и продават технологията, като към единствените, които биха могли да схванат това и затова да дават информация за това по какъв начин би трябвало да работи регулацията, ние в действителност ще пропуснем ", сподели Бендер.

 

Бендер сподели, че при всяка опция се пробва да каже на хората, че " тези неща наподобяват доста по-умни, в сравнение с са ". По думите ѝ това е по този начин, тъй като " ние сме толкоз умни, колкото сме ", а методът, по който осмисляме езика, в това число отговорите на изкуствения разсъдък, " в действителност е като си представяме, че зад него стои разум ".

 

В последна сметка Бендър сложи елементарен въпрос към софтуерната промишленост по отношение на ИИ: " Ако те в действителност имат вяра, че това може да докара до изгубването на човечеството, за какво просто не спрат? "

 

Източник:
създател: СЛАВА
...
Източник: slava.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР