Счита се, че един Голям езиков модел (Large language model,

...
Счита се, че един Голям езиков модел (Large language model,
Коментари Харесай

И хората, и изкуственият интелект халюцинират – но не по един и същи начин

Счита се, че един Голям езиков модел (Large language model, LLM), който дава погрешна информация, „ халюцинира “, и сега се поставят от ден на ден старания за минимизиране на този резултат. Но до момента в който се занимаваме с тази задача, си коства да се замислим върху нашите лични халюцинации – и по какъв начин те въздействат върху точността на езиковите модели, които сътворяваме.

Като разберем връзката сред капацитета за халюцинации на изкуствения разсъдък и нашия личен, можем да стартираме да сътворяваме по-интелигентни модели, които в последна сметка ще оказват помощ за понижаване на човешките неточности.

 Rosumovi Univerzální Roboti 1920

Думата „ робот “ е измислена от Карел Чапек през 1921 година в пиесата му „ R.U.R. “, чието заглавие значи „ Универсалните роботи на Росум “

Не е загадка, че хората си измислят информация. Понякога вършим това съзнателно, а от време на време несъзнателно. Последното е резултат от когнитивни пристрастия или „ евристики “: умствени директни пътища, които развиваме посредством предишния си опит.

Тези директни пътища постоянно са подбудени от нужда. Във всеки един миг можем да обработим единствено лимитирано количество от информацията, която залива сетивата ни, и да запомним единствено част от тази, която въпреки всичко доближава вниманието ни.

Поради това нашият мозък би трябвало да употребява заучени асоциации, с цел да запълни празнините и да отговори бързо на всеки въпрос или усложнение, което стои пред нас. С други думи, мозъците ни в последна сметка от време на време допускат какъв би могъл да бъде верният отговор въз основа на лимитирани познания. Това се назовава „ конфабулация “ и е образец за човешко предрешение.

Предразсъдъците ни също могат да доведат до неприятна преценка. Да вземем за образец предубеждението ни към автоматизация – податливост да избираме информацията, генерирана от автоматизирани системи (като ChatGPT), пред информацията от неавтоматизирани източници. Тази пристрастност може да ни накара да пропуснем техните неточности и даже да действаме въз основа на безусловно противоположното на вярна информация.

Друг значим евристичен фактор е резултатът на ореола, при който първичното ни усещане от нещо въздейства на последващите ни взаимоотношения с него. И предразсъдъка ни към информация, показана по по-лесен за четене метод.

Изводът е, че човешкото мислене постоянно е оцветено от личните си когнитивни наклони и изкривявания, а тези „ халюцинаторни “ трендове значително се демонстрират и отвън нашето схващане.

В подтекста на езиковите модели халюцинациите са разнообразни. Те не се пробват – като нас – да пестят лимитирани умствени запаси, с цел да осмислят света дейно. „ Халюцинирането “ в този подтекст просто разказва несполучлив опит да се планува подобаващ отговор на информацията, която индивидът им дава.

Въпреки това въпреки всичко има известна аналогия сред метода, по който хората и моделите халюцинират, защото моделите също го вършат за „ запълване на празнините “. Те генерират отговор, като плануват коя дума е най-вероятно да се появи последваща в дадена поредност въз основа на това, което е било – преди, и на асоциациите, които системата е научила при образованието си.

Подобно на хората, езиковите модели се пробват да плануват най-вероятния верен отговор. За разлика от хората обаче те вършат това, без да схващат какво споделят. Затова те могат да се окажат източник на глупости.

Що се отнася до аргументите за халюцинациите при моделите, съществуват редица фактори. Основният от тях е, че са обучавани на данни, които са неправилни или незадоволителни. Други фактори включват метода, по който системата е програмирана да се учи от тези данни, и метода, по който това програмиране се укрепва посредством по-нататъшно образование с хора.

И по този начин, в случай че и хората, и машините са податливи на халюцинации (макар и по разнообразни причини), кое е по-лесно да се поправи?

Поправянето на данните за образование и процесите, които са в основата на езиковите модели и изобщо изкуствения разсъдък, може да наподобява по-лесно от това да изправим себе си… Но в този случай не се регистрират човешките фактори, които оказват въздействие върху системите с изкуствен интелект.

Реалността е, че нашите неточности и грешките на нашите технологии са неразривно свързани, тъй че поправянето на едното ще помогне за поправянето на другото. Ето няколко метода, по които можем да създадем това.

Отговорно ръководство на данните. Грешките в изкуствения разсъдък постоянно произтичат от необективни или лимитирани данни за образованието им. Начините за справяне с този проблем се свеждат до обезпечаване на разнородни и представителни данни, основаване на логаритми, съобразени с другите човешки пристрастия, и използване на техники като балансиране на данните за премахване на изкривени или дискриминационни модели. Прозрачност и разбираем ИИ. Въпреки горепосочените дейности обаче пристрастията в ИИ към момента може да има и да бъдат сложни за разкриване. Като учим по какъв начин те могат да навлязат в една система и да се разпространят в нея, можем по-добре да разбираем съществуването им в резултатите. Това е в основата на течението за „ разбираем ИИ “, който има за цел да направи процесите на взимане на решения от ИИ по-прозрачни. Поставяне на ползите на обществото на напред във времето. Разпознаването, ръководството и ученето от пристрастия в ИИ изисква човешка отговорност и консолидиране на човешките полезности в тези нови технологии.

Като работим дружно по този метод, е допустимо да изградим по-интелигентни системи, които могат да ни оказват помощ да държим под надзор всичките си лични халюцинации.

   
Източник: chr.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР