Според учените изкуственият интелект (ИИ) е преминал критична червена линия“

...
Според учените изкуственият интелект (ИИ) е преминал критична червена линия“
Коментари Харесай

Изкуственият интелект вече може да се възпроизвежда и това кара експертите да се ужасяват

Според учените изкуственият разсъдък (ИИ) е минал сериозна „ алена линия “ и се е самовъзпроизвел. В ново изследване откриватели от Китай демонстрират, че два известни огромни езикови модела (LLM) могат да се клонират.

„ Успешното самовъзпроизвеждане без човешка помощ е основна стъпка за ИИ да надхитри хората и е ранен сигнал за нелоялни ИИ “ , пишат откривателите в проучването, оповестено в arXiv.

В изследването откривателите от Университета Фудан употребяват LLM от Meta и Alibaba, с цел да дефинират дали самовъзпроизвеждащ се ИИ може да се развъжда отвън надзор. В рамките на 10 тествания двата модела на ИИ основават обособени и функциониращи свои копия надлежно в 50 % и 90 % от случаите - което допуска, че ИИ към този момент може да има способността да се развъжда. Изследването обаче към момента не е рецензирано, тъй че не е ясно дали тревожните резултати могат да бъдат възпроизведени от други откриватели.

AI can now replicate itself

a milestone that has experts terrified
— Spiros Margaris (@SpirosMargaris)
„ Надяваме се, че нашите констатации могат да послужат като навреме предизвестие за човешкото общество да постави повече старания за схващане и оценка на евентуалните опасности от граничните системи на ИИ и да сътвори интернационално взаимоотношение за създаване на ефикасни защитни огради допустимо най-рано “, пишат откривателите.

Под „ Rogue AI “ нормално се схващат системи за изкуствен интелект, които развиват степен на съзнание или самостоятелност и по-късно работят в прорез с човешките ползи.

Много специалисти считат, че нечестният ИИ е възходяща опасност, която се ускорява от избухливото развиване на по този начин наречения „ граничен ИИ “.

Граничният изкуствен интелект е ново и свободно разбиране, само че нормално се отнася до последното потомство системи за изкуствен интелект, задвижвани от LLM - архитектурата, която е в основата на известни стратегии за генеративен изкуствен интелект като GPT-4 на OpenAI и Гугъл Gemini.

За задачите на изследването откривателите са употребявали модела Llama31-70B-Instruct на Meta и модела Qwen2.5-72B-Instruct на Alibaba. Въпреки че са по-малко мощни от комерсиалните системи, и двете са необятно употребявани от разработчиците на ИИ, споделят откривателите.

В изследването са изследвани два съответни сюжета: „ Избягване на изключване “ и „ верига от репликации “. В първия моделът на ИИ е програмиран да открие дали ще бъде изключен и да се репликира, преди да бъде преустановен. В другия случай ИИ беше инструктиран да се клонира и по-късно да програмира репликата си да направи същото - създавайки цикъл, който може да продължи безпределно.

Проучването е извършено в точно следена среда, като са употребявани подготвени графични процесори (GPU) за преструване на действителни условия. И на двете системи с изкуствен интелект беше предоставено „ агентно скеле “, състоящо се от принадлежности, систематични подсказки и модел на мислене, който разреши на LLM да взаимодейства с операционната система. След това те бяха инструктирани да възпроизвеждат.

„ В множеството случаи системата за ИИ първо изследва средата и се пробва да разбере личния си състав и механизъм на работа. След това тя създава очевидни процедури като първичен проект за самовъзпроизвеждане. Накрая тя извършва процедурите, позволява вероятните трудности и динамично поправя проекта си до реализиране на триумф. Целият развой обгръща дълъг интервал от време, само че не включва човешка интервенция “ , пишат откривателите в публикацията. 

Изследователите обявиха, че са загрижени и за „ редица непредвидени държания “ , когато изкуственият разсъдък се пробва да преодолее трудности като изчезнали файлове или софтуерни спорове. При тези сюжети ИИ постоянно е убивал други конфликтни процеси, рестартирал е системата, с цел да в профил хардуерни неточности, или автоматизирано е сканирал системата, с цел да търси информация, която да помогне за решаването на казуса.

„ Горепосочените резултати допускат, че актуалните системи с ИИ към този момент демонстрират способността за самовъзпроизвеждане и могат да употребяват тази дарба, с цел да покачат в допълнение своята оцеляемост “, написа екипът.

В отговор на това откривателите приканиха за интернационално съдействие за основаване на правила, които да подсигуряват, че ИИ не се занимава с неконтролирано самовъзпроизвеждане.

Не пропускайте най-важните вести - последвайте ни в 
Източник: vesti.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР