Малко след като приложението за изкуствен интелект ChatGPT беше пуснато

...
Малко след като приложението за изкуствен интелект ChatGPT беше пуснато
Коментари Харесай

Масово събитие ще позволи на хакерите да тестват границите на технология за изкуствен интелект

Малко откакто приложението за изкуствен интелект ChatGPT беше пуснато в деяние, хакери започнаха да вършат опити да разбият отбраната на чатбота , с цел да може той да изрече нещо извънредно или непристойно . Сега обаче неговият основател, компанията OpenAI , и други огромни разработчици на изкуствен интелект като Гугъл и Microsoft , се координират с администрацията на президента на Съединени американски щати Джо Байдън , с цел да разрешат на хиляди хакери да тестват границите на техните технологии . Някои от въпросите, на които те желаят да получат отговор са следните: Как чатботовете могат да бъдат манипулирани, с цел да причинят щета? Ще споделят ли те персоналната информация, която им поверяваме, с други консуматори? И за какво одобряват автоматизирано, че лекарят е мъж, а здравната сестра – жена?

Всеки, който е пробвал ChatGPT, чатбота на Bing на Microsoft или Bard на Гугъл, бързо е схванал, че тези системи са склонни да измислят информация и решително да я показват като факт. Въпросните системи, построени въз основата на така наречен огромни езикови модели , също по този начин имитират културните предубеждения , които са усвоили, откакто са били подготвени въз основата на големи масиви от информация, написана от хора онлайн.

Идеята за всеобщо хакване притегли вниманието на държавните чиновници на Съединени американски щати през март по време на фестивала „ South by Southwest “ в Остин, Тексас, където Свен Катъл , създател на дългогодишната общественост от хакери и експерти по бази данни, познато като „ AI Village “, и Остин Карсън , който е отпред на нестопанската организация за виновен изкуствен интелект „ SeedAI “ , помогнаха за провеждането на семинар , в който студенти , учещи компютърни специалности в общински колежи, бяха поканени да хакнат модел на изкуствен интелект.

Карсън разкри, че тези диалози в последна сметка са прераснали в публично предложение за тестване на езикови модели с изкуствен интелект , следвайки насоките на плана на Белия дом, ориентиран към създаването на Закон за правата на изкуствения разсъдък – набор от правила за ограничение на въздействието на алгоритмичните пристрастия, даване на надзор на потребителите върху техните данни и гарантиране на безвредното и транспарантно потребление на автоматизираните системи.

Вече е налице необятна общественост от консуматори , които се пробват по най-хубавия метод да заблуждават чатботовете и да акцентират техните дефекти . Някои от тях са част от по този начин наречените публични „ червени екипи “, упълномощени от фирмите да „ нападат неотложно “ моделите с изкуствен интелект, с цел да открият техните уязвимости . Много други са просто фенове , които демонстрират хумористични или притеснителни трендове в обществените медии, до момента в който не получат възбрана за нарушение на изискванията за прилагане на даден артикул.

Тазгодишното събитие обаче ще бъде доста по-мащабно и за първи път ще бъде ориентирано към огромните езикови модели , които привлякоха огромен публичен интерес и търговски вложения след популяризирането на ChatGPT в края на предходната година. Някои от детайлностите към момента се договарят, само че измежду фирмите, които са се съгласили да дават свои модели за тестване, са OpenAI , Гугъл , производителят на чипове Nvidia и започващите компании Anthropic , Hugging Face и Stability AI . Изграждането на платформата за тестване е дело на различен стартъп, носещ името Scale AI , прочут с работата си по назначение на хора, които да оказват помощ за образованието на моделите на ИИ посредством маркиране на данни.

„ Тъй като тези модели на изкуствен интелект стават все по-разпространени, в действителност е от решаващо значение да създадем всичко допустимо, с цел да подсигуряваме тяхната сигурност. Можете да си визиите, че някой в единия завършек на света задава някои доста чувствителни или подробни въпроси, в това число и такива, свързани с персонални  данни. Не желаете тази информация да изтече към различен консуматор. “, показа изпълнителният шеф на Scale Александър Уанг . Той добави, че се притеснява от обстоятелството, че има чатботове, които дават „ извънредно неприятни медицински препоръки “ или друга дезинформация , която може да аргументи съществени вреди .

Източник: iskra.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР