Можем ли да вярваме на суперчатботовете? Този въпрос задават от

...
Можем ли да вярваме на суперчатботовете? Този въпрос задават от
Коментари Харесай

Можем ли да вярваме напълно на суперчатботовете?

Можем ли да имаме вяра на суперчатботовете? Този въпрос задават от The New York Times и разказват по какъв начин Джереми Хауърд, откривател в региона на изкуствения разсъдък, среща 7-годишната си щерка с онлайн чатбот, който направи възторг през последните седмици - ChatGPT. Негов основател е OpenAI, една от най-амбициозните лаборатории за изкуствен интелект в света. Той е подготвен с голяма база данни и може да дава отговор на всевъзможни въпроси от разнообразни сфери.

В резултат на опита Хауърд доближава до едно умозаключение – чатботът може да научи щерка му на доста неща и на едно най-важно - не вярвай на всичко, което ти споделят.

OpenAI е измежду многото компании, университетски лаборатории и самостоятелни откриватели, които работят за основаването на по-усъвършенствани чатботове. Тези системи не могат да беседват тъкмо като човек, само че все по-често стартират да се приближават покрай това равнище. Освен това те могат да извличат и препакетират информация със скорост, която хората в никакъв случай не биха могли да реализират. Реално, суперчатботовете могат да се преглеждат като цифрови асистенти - като Siri или Alexa - които схващат какво търсите, знаят къде да го намерят и ви го дават.

След стартирането на ChatGPT – платформа, употребена към този момент от повече от един милион души - доста специалисти са на мнение, че тези нови чатботове са подготвени да преоткрият и даже да заменят интернет търсачки като Гугъл и Bing. Те могат да дават информация в къси фрази, а не в дълги описи от връзки, да изясняват понятията по понятен за хората метод. И не на последно място, могат да дават обстоятелства, като в това време генерират бизнес проекти, тематики за курсови работи и то от нулата.

Новите чатботове вършат това с цялостна убеденост, само че не постоянно споделят истината и от време на време се провалят даже в простата аритметика, предизвестяват откриватели на изкуствения разсъдък, представени от The New York Times. Според тях защото технологията към момента продължава да се усъвършенства, някои хора биха могли да я употребяват сега, с цел да основават и популяризират лъжи.

Възходът на чатботовете....

Компанията от Сан Франциско има доста амбициозни разработки. ChatGPT, да вземем за пример, е новаторски чатбот, който може да беседва съвсем като човек и има доста повече познания от множеството хора. Системата DALL-E 2 пък ви разрешава да създавате цифрови образни изображения посредством текстово изложение. GPT-3, на собствен ред, може да написа, да спори и даже да кодира.

Наскоро Гугъл също попадна под светлините на прожекторите с разговорния си изкуствен интелект LaMDA (Language Model for Dialogue Applications), откакто инженер на компанията разгласи, че системата е развила разсъдък.

Но Аарон Марголис, експерт по данни, който е един от дребното хора отвън Гугъл, на които е било разрешено да употребяват LaMDA посредством пробно приложение, наречено AI Test Kitchen, слага под въпрос тези благоприятни условия.

Пред NYT той споделя, че е помолил и LaMDA, и ChatGPT да беседват с него, като че ли е Марк Твен. LaMDA разказва среща сред Твен и Леви Щраус и споделя, че писателят е работил за бащата на дънките, до момента в който е живял в Сан Франциско в средата на XIX век. Дори да наподобява правилно на пръв взор, тъй като двамата са обитавали града едновременно, в действителност те в никакъв случай не са работили дружно.

Учените назовават този проблем " илюзия ". Подобно на положителния повествовател, чатботовете имат свойството да вземат наученото и да го претворяват в нещо ново - без да се преценяват с това дали е правилно, счита Марголис.

LaMDA е това, което откривателите на изкуствения разсъдък назовават невронна мрежа - система, моделирана по сходство на тази на невроните в човешкия мозък. Това е същата технология, която превежда сред български и британски език в услуги като Гугъл Translate и разпознава пешеходци, до момента в който самоуправляващите се коли се движат по улиците.

Преди пет години откриватели от Гугъл и лаборатории като OpenAI започнаха да проектират невронни мрежи, които проучват големи количества дигитален текст, в това число книги, публикации в Wikipedia, вести и онлайн чатове. Учените ги назовават " огромни езикови модели ". Идентифицирайки милиарди разнообразни модели на метода, по който хората свързват думи, числа и знаци, тези системи се научиха сами да генерират текст. В последна сметка, технологията към този момент може да имитира написаното от хората и да комбинира разнообразни понятия.

В ChatGPT OpenAI работи за рационализиране на технологията. Тя не се оправя със свободните диалози толкоз добре, колкото LaMDA на Гугъл, само че пък е проектирана да работи по-скоро като цифров помощник. Подобно на LaMDA, ChatGPT е подготвен въз основата на големи размери текст, извлечен от интернет.

....идва с терзания

Но даже основателите на тези новаторски чатботове като OpenAI подчертават, че методът не е идеален. Компанията предизвести тези, които употребяват ChatGPT, че " от време на време може да генерира погрешна информация " и " да основава нездравословни указания или пристрастно наличие ", напомня още New York Times.

Гугъл, Meta и други компании също работят за решаването на проблемите с достоверността. Meta даже неотдавна отстрани онлайн визуализация на своя чатбот Galactica, тъй като той неведнъж генерираше погрешна и пристрастна информация.

Експертите пък от дълго време предизвестяват, че фирмите не управляват на 100% ориста на тези технологии. Системи като ChatGPT, LaMDA и Galactica се основават на хрумвания, научни публикации и компютърен код, които се популяризират свободно от години в интернет. И даже оттук насетне софтуерните колоси да развият технологията с огромни темпове, техните към този момент пуснати в послание системи са необятно публикувани и никой не може да попречи на зловредни играчи да ги употребяват за разпространяване на дезинформация.

Така че, едно мислено!
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР