Изкуственият интелект (ИИ) в никакъв случай не е просто рационално

...
Изкуственият интелект (ИИ) в никакъв случай не е просто рационално
Коментари Харесай

Изкуственият интелект избира приятелите си по същия начин, както хората, установиха учени

Изкуственият разсъдък (ИИ) никога не е просто рационално „ мислеща машина “ - в противен случай: „ ЧатДжиПиТи “, „ Джемини “ и други ИИ системи демонстрират доста типични човешки характерности, пишат от Scinexx.de, базирайки се на проучване, оповестено на портала PNAS Nexus.

ИИ показва креативност, може да мами, лъже и манипулира потребителите си. Някои системи с изкуствен интелект даже към този момент дават отговор на критериите за свободна воля. В същото време доста ИИ модели са изненадващо новаторски и даже развиват предвестници на обществено другарство между тях. Но какво можем да кажем за общественото държание на „ ЧатДжиПиТи “, „ Джемини “, „ ДийпСийк “ и други? Дали тези модели се държат сходно на нас, хората, в обществените мрежи и при реализиране на нови контакти?

„ Разбирането по какъв начин огромните езикови модели (LLM) се държат в обществена среда е от решаващо значение, с цел да можем да сме сигурни, че работят в сходство с нашите упования и полезности “, изясняват Мариос Папахристу от Държавния университет на Аризона и Юан Юан от Калифорнийския университет в Дейвис.

За да тестват това, откривателите сътвориха изкуствени обществени мрежи с 200 симулирани консуматори под формата на мрежови възли. След това те помолили четири разнообразни, почти еднообразно огромни модела на ИИ – GPT 3.5, GPT 4 mini, Llama-3 и Claude 3.5 – да открият нови „ другарства “ в тези виртуални мрежи.

В хода на своите проби Папахристу и Юан променяли информацията, която моделите с изкуствен интелект получавали за мрежовите възли, както и за хипотетичния подтекст - да вземем за пример дали става въпрос за частна мрежа от другарства или чисто професионална корпоративна мрежа.

Резултатът бил, че съвсем във всички обстановки моделите с изкуствен интелект показвали държание, поразително сходно на това при хората. ИИ моделите употребявали явно същите критерии като нас, с цел да схванат, кого да изберат за „ другар “ или с кого да се свържат в обществена мрежа. „ LLM освен възпроизвеждат нашите хрумвания, само че го вършат на толкоз високо равнище, че държанието им е мъчно различимо от нашето “, показват откривателите.

По-конкретно, изследването разкри, че системите с ИИ избират контакти, които към този момент са добре свързани - и затова имат висок обществен статус в мрежата. Тази наклонност към по този начин наречената преференциална връзка е по-изразена в по-новите модели с изкуствен интелект като GPT-4 mini, в сравнение с да вземем за пример в GPT 3.5. По този метод ИИ моделите демонстрират същото държание като хората в обществените мрежи.

Второто типично човешко държание е по този начин нареченото образуване на триади. „ Това значи, че хората са по-склонни да образуват връзки с другари на техни другари, в сравнение с с изцяло непознати “, изясняват откривателите.

Третата характерност на човешките взаимоотношения и обществените мрежи е обществената хомофилия - т.е. склонността ни да се сприятеляваме с хора, които споделят сходни ползи, възгледи или занимания. Изследователите тестваха това в изкуствена мрежа, на която случайно дадоха разнообразни места на престояване, занимания и обичани цветове. И в действителност, и тук моделите на изкуствения разсъдък са отразили човешкото държание.

Според откривателите, тази „ човешка страна “ в общественото държание на системите с ИИ има някои преимущества, само че и избрани дефекти: „ Тя може несъзнателно да укрепи обществени феномени като ехтене камери, закрепени йерархии или дезинформация “, предизвестява екипът. „ От друга страна, това разрешава на изкуствения разсъдък да основава реалистични симулации, които можем да използваме за тестване на контрамерки или да ни помогне да разработим по-справедливи осведомителни системи, “ допълват още учените, представени от Scinexx.de.
Източник: bta.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР