Популярно видео, което твърди, че показва три различни чатбота, говорещи

...
Популярно видео, което твърди, че показва три различни чатбота, говорещи
Коментари Харесай

Говорят ли си наистина ботовете с изкуствен интелект на свой „таен“ език?

Популярно видео, което твърди, че демонстрира три разнообразни чатбота, говорещи на личен „ скришен “ език, натрупа милиони гледания в разнообразни обществени медийни платформи.

Клипът демонстрира по какъв начин ботовете в началото водят телефонен диалог на британски, в който разискват „ номера на значката на чиновник “. Когато обаче машините осъзнават, че всички в диалога са машини, се питат взаимно дали да преминат към връзка посредством Gibberlink и стартират да издават високи звуци, като че ли от научнофантастичен филм.
Шум или същинска технология?
Gibberlink е термин, който разказва обстановката, при която няколко разнообразни сътрудника с изкуствен интелект минават от потребление на понятен за индивида език към персонализиран, основан на тон протокол. Този протокол, наименуван ggwave, им разрешава да споделят по-ефективно, заобикаляйки тромавия и муден човешки език. Терминът съчетава думите  „ нелепости “ и „ линк “.

EuroVerify, факт-чек платформата на Euronews, помоли Антон Пидкуйко, съосновател на плана Gibberlink, да прегледа няколко онлайн клипа.

Много от видеоклиповете имитират съществуваща технология – те демонстрират телефони, които в действителност не споделят и няма сигнал сред тях, вместо това звуците са редактирани, а визуализациите са взети от ChatGPT “, споделя той, откакто е анализирал видеата.

Фалшиви онлайн видеоклипове, които сякаш демонстрират използването на технологията Gibberlink, започнаха да се появяват, откакто тя беше основана през февруари от Пидкуйко и сътрудника му инженер по изкуствен интелект Борис Старков по време на 24-часов софтуерен хакатон, извършен в Лондон.

Двамата комбинираха ggwave – съществуваща технология с отворен код, която разрешава продан на данни посредством тон – с изкуствен интелект. Така че, действително изкуственият разсъдък не комуникира на личен език, той не е „ конфиденциален “, защото се основава на данни с отворен код и е кодиран от хора.

За Пидкуйко технологията е сравнима с QR кодовете. „ Всеки продукт в супермаркета има баркод, което прави извършването на покупки доста по-ефективно. “

Gibberlink е всъщност този баркод – или си го представяйте като QR код – само че във тип на тон. Хората могат да гледат QR код и да виждат единствено черно-бели елементи. Но QR кодовете не плашат хората. “
За какво ще се употребява Gibberlnk в бъдеще
Въпреки че потреблението на технологията Gibberlink е доста лимитирано сега, нейните основатели имат вяра, че тя ще стане по-масова.

С времето ще забележим нарастване на броя на позвъняванията от роботи – и всъщност от ден на ден и повече ще виждаме, че един изкуствен интелект дава информация. “

Въпреки че тази технология съставлява риск от отнемане на хората от опцията да имат свястно взаимоотношение с машината, за Пидкуйко Gibberlink би бил средство за максимизиране на успеваемостта.

„ Друг метод, по който технологията може да се употребява, е в случай че желаете да резервирате място в ресторант, само че не желаете да звъните на 10 разнообразни места, с цел да питате дали имат място, можете да накарате изкуствен интелект да реализира позвъняването, а ресторантът да накара изкуствен интелект да го одобри. Ако могат да споделят по-бързо на личния си език, има смисъл “, заключи Пидкуйко.
По-широки опасения
Опасенията по отношение на това какво може да се случи, в случай че хората станат неспособни да интерпретират връзките сред ботовете с изкуствен интелект са действителни и през януари стартирането на китайския модел DeepSeek R1 провокира паника.

Изследователи, които са работили по технологията, разкриха, че са подтикнали изкуственият разсъдък да намира верните отговори, без значение дали разсъжденията му са разбираеми за хората.

Това обаче е предиздвикало бота да стартира непринудено да превключва от британски на китайски, с цел да реализира резултат. Когато откривателите принудили технологията да се придържа към един език – с цел да подсигуряват, че потребителите могат да следват процесите ѝ – способността ѝ да намира отговори е била възпрепятствана.

Този случай накара специалистите от промишлеността да се притеснят, че стимулирането на изкуствения разсъдък да намира верните отговори, без да се подсигурява, че процесите му могат да бъдат разгадани от хората, може да докара до създаване на езици, които не могат да бъдат разбрани.

През 2017 година Фейсбук се отхвърли от опит, откакто две стратегии с изкуствен интелект започнаха да беседват на език, който единствено те разбираха.
изкуствен интелект чатбот чатботове генеративен AI Gibberlink
Източник: economic.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР