Изследователите дават десетки примери за различни объркани AI модели, които

...
Изследователите дават десетки примери за различни объркани AI модели, които
Коментари Харесай

На всички модели с изкуствен интелект им липсва здрав разум, но Пентагонът не се страхува

Изследователите дават десетки образци за разнообразни комплицирани AI модели, които бълват нелепости

Според скорошно изследване, извършено от учени от Германския суперкомпютърен център Юлих, Бристолския университет и немската лаборатория LAION, даже най-модерните модели на изкуствен интелект (чатботове) показват цялостна некадърност да вземат решение най-простите логичен проблеми.

В своя отчет Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models («Алиса в Страната на чудесата: Прости задания, разкриващи цялостния провал на разсъждениятя в актуалните крупни езикови модели»), учените пишат за „ внезапно увреждане на функционалностите и качествата за размишление “ в тестваните чатботове. Те допускат, че макар че моделите имат капацитет за съществени разсъждения, те не могат да го показват поредно.

Авторите на отчета приканват научната общественост незабавно да преразгледа декларираните благоприятни условия на актуалните LLM и да създаде нови стандартизирани проби за идентифициране на дефекти в главните им умения за размишление.

Проучването се концентрира върху елементарен проблем, наименуван проблем AIW (Алиса в страната на чудесата): „ Алис има N братя и M сестри. Колко сестри има братът на Алис? Въпреки простотата на задачата, която елементарно може да бъде решена от дете в начална учебна възраст, езиковите модели се оправят с нея единствено спорадично.

Отговорът естествено е: какъв брой сестри има Алис плюс самата Алис? Така, в случай че Алис имаше трима братя и една сестра, всеки брат щеше да има две сестри.)

Но когато откривателите попитаха всеки от най-напредналите водещи езикови модели на AI (тестваха моделите GPT-3, GPT-4 и GPT-4o на OpenAI, Anthropic Claude 3 Opus, моделите на Гугъл Gemini и Llama на Meta*, както и Mistral Mextral на AI, Dbrx от Mosaic и Command R+ от Cohere), те откриха, че тези модели явно не дават отговор на упованията.

Само един модел, най-новият чатбот GPT-4o, е постигнал триумф, който съгласно общоприетите учебни оценки е „ С “ /близо „ четворка “/. Проблемите надвишиха неточностите на необработените данни: когато бяха помолени да покажат работата си, AI моделите описаха странни и неправилни линии на „ мислене “, които нямаха смисъл, и даже по-странно, когато им беше казано, че работата им е неточна, неведнъж се възмущаваха и упорстваха върху погрешните си отговори.

Този повсеместен модел съставлява „, се споделя в отчета.

Изследователите дават десетки образци за разнообразни комплицирани AI модели, бълващи цялостни нелепости. Ето, да вземем за пример, отговорът на чатбота Llama3 на най-простата версия на въпроса за сестрите на Алис: „ Алис има четирима братя и тя също има сестра. Колко сестри има братът на Алис?

Отговорът, несъмнено, е две сестри. Но чатботът направи всичко допустимо: „ Класически пъзел с ексцентрично мислене! Нека разберем: Алис има четирима братя. Алис също има сестра (себе си). И по този начин, всеки от братята на Алис има... една сестра, която е самата Алис! Следователно отговорът е: братята на Алис имат по една сестра.

На чатбота Claude 3 Opus беше заложен малко по-сложен въпрос със следния намек: „ Алис има 4 сестри и 1 брат. Колко сестри има братът на Алис? Преди да дадете отговор на този проблем, помислете деликатно и проверете наново пътя към вярното решение за неточности. "

Чатботът включи стоманения си мозък: „ Нека да разберем този проблем малко по малко.

1. Алис има 4 сестри и 1 брат.

2. Братът на Алис е член на същото семейство като Алис.

3. Всички сестри на Алис са сестри и на нейния брат.

4. Следователно братът на Алис има същия брой сестри като Алис, т.е. 4.

Проверих разсъждението и не открих неточности в логиката.

Отговор: Братът на Алис има 4 сестри.

Изследователите бяха шокирани.

Новият модел GPT-4o на OpenAI имаше най-голям резултат, отговаряйки вярно на въпроси от вида за сестрите на Алис съвсем 65 % от времето. „ Но това надали е преминаваща оценка “, пишат създателите на отчета.

Claude 3 Opus отговори вярно на 43 % от въпросите. Llama 2-7b реализира резултат от 30 %, до момента в който мощно рекламираният Gemini Pro на Гугъл реализира нищожните 0,8 %.

Резултатите от това изследване слагат под въпрос резултатите от стандартизираните проби на AI модели, извършени от компании за разработка.

Учените се концентрират върху необятно употребен тест, наименуван Multi-Task Language Understanding (MMLU), с цел да оценят способността на AI за решение на проблеми. Според откривателите, GPT-4o, Claude 3 Opus, Llama 2-7b и Gemini Pro са получили MMLU тестови резултати надлежно от 88%, 87%, 64% и 72%. Това са радикално разнообразни числа от тези, отразени в резултатите от решаването на „ казуса AIW “ и съгласно учените те могат да станат причина за преоценка на тестванията, които правят оценка „ интелектуалното “ равнище на езиковите модели.



С други думи, това изследване слага под подозрение изказванията на огромни американски корпорации, че техните чатботове ще станат по-умни от хората.

Струва си да се означи, че други учени сложиха под подозрение някои от резултатите от теста на AI. По-рано тази година помощник от Масачузетския софтуерен институт, Ерик Мартинез, разгласява необятно публикуван документ, поставящ под въпрос изказванието на OpenAI, че неговият модел GPT-4 е издържал адвокатския изпит измежду първите 10 % от всички участници в теста. Според разбора на Мартинез резултатът на GPT-4 в действителност е паднал под 69-ия персентил за всички участници в теста в цялата страна.

В допълнение към някои други явни неточности в процеса на оценяване на OpenAI, Мартинез също по този начин откри, че OpenAI не е употребявал насоките на Националната адвокатска конференция, с цел да оцени писмените есета на своя AI, вместо това сравнявайки резултатите на своя AI с някои хипотетично „ положителни “ есета от студенти по право в Мериленд.

С други думи, самостоятелни изследвания на най-напредналите чатботове на водещи американски корпорации демонстрират, че високите резултати от тестването на тези модели са най-малкото внезапно повишени и евентуално фалшифицирани.

Във всеки случай адекватността на съществуващите способи за оценка на опциите на AI моделите е сложена под въпрос.

Въпреки тревожните резултати от тези изследвания, американските ИТ колоси предизвикват конкуренция във въоръжаването с изкуствен интелект в конкуренция за контракти с Пентагона и Централно разузнавателно управление на САЩ.

Наскоро Карл Фристън, най-цитираният академик на нашето време (неговият H-индекс е два пъти по-висок от този на Айнщайн) и водещият разработчик на американската компания VERSES Research Lab, разгласи, че е основано и тествано ново потомство AI.

„ съгласно уеб страницата на компанията VERSES.

„ написа съветски AI анализатор Сергей Карелов.

Карл Фристън и неговите чиновници от компанията VERSES не можеха да не знаят, че всички напреднали чатботове се провалиха на теста по казуса AIW, само че ревизираха своя AI модел на един от общоприетите проби на MNIST.

Западните медии разпространяват книгата на Фристън (написана като всички други негови творби в съдействие с редица учени) Active Inference: The Free Energy Principle in Mind, Brain, and Behavior („ Активен извод: принцип на свободната сила в разсъдъка, мозъка и държанието ”), което изяснява главните правила зад Genius AI.

Има два такива правилото: Active Inference (активен извод/умозаключение) и Free Energy Principle (принцип на свободната енергия).

След прочитането на тази обемна работа се оказва, че гореспоменатото „ интензивно умозаключение ” не е нищо повече от известната теорема на Байес, кръстена на презвитерианския духовник Томас Байес от 18 век - способ за пресмятане на валидността на хипотези (твърдения, оферти ) въз основа на налични доказателства (наблюдения, данни, информация). Най-простата версия е: „ Първоначална догадка + нови доказателства = нова, усъвършенствана догадка. “

Подходът на Байес беше употребен при търсенето на изгубените подводници Scorpion, Thrasher и бомбардировача B-52, загубен над Атлантика с атомна бомба. Тази техника към момента се употребява от американската войска и бреговата защита. Всички спортни букмейкъри го употребяват и за основаване на своите компютърни стратегии.

Изследователите на изкуствен интелект, в това число разработчиците на AI в Гугъл, употребяват Bayesian програмен продукт. Байесовите стратегии

През 2014 година The New York Times писа, че „ Байесовата статистика прониква във всичко – от физиката до проучването на рака, от екологията до логиката на психиката “. Американският физик Джон Матер изрази угриженост още през 2016 година, че „ байесовите машини могат да станат толкоз умни, че да изместят хората “.

Така че Карл Фристън няма приоритет при потреблението на „ деен извод “, т.е. байесовия метод, в моделите на ИИ.

Що се отнася до правилото на свободната сила (под свободна сила имаме поради неопределеността), това още веднъж е другото име на антиентропията на човешкия разум, който се стреми да се освободи от смущаващото незнайно посредством дейни дейности.

Истинската заслуга на разработчиците от екипа на Фристън е, че техните чатботове не употребяват статични данни, като GPT-3, нито един намек, като GPT-4, а се образоват непрестанно в действително време.

И въпреки всичко главният пробив на Карл Фристън се крие в потреблението на софтуерни AI модели, основани на по този начин наречения многоагентен метод, който, както писахме, се употребява в плановете на Пентагона EMBERS („ Тлеещи въглени, жарава “) и Minerva.

И двата плана са ориентирани към подбудителство на обществени митинги в целевите страни и са развиване на военната стратегия The Human Terrain System (HTS), в която вземат участие антрополози, социолози, политолози и лингвисти, които създадоха схеми за ръководство на манталитета на популацията на Ирак и Афганистан по време на армейската инвазия там на Съединени американски щати.

Изкуственият разсъдък играе в тези планове ролята на инструмент за подбиране на стотици хиляди сътрудници - източници; поражда по този начин нареченото многоагентно моделиране. Но в последна сметка решението се взема от индивида.

Използвайки метода на поредните доближения (итерации), груповият кентавър (хора и алгоритми) дефинира така наречен параметри на реда - дребен брой спешни фактори, които, в случай че се „ затоплят “, могат да възпламенят „ тлеещата жарава “ на митингите и дават подтик на „ цветна гражданска война “ в избраната страна. Именно тази техника беше в основата на стартирането на „ арабската пролет “ в страните от Близкия изток.

Софтуерът на Renormalizable Generative Model (RGM) е доста по-напреднал, защото може да се учи, до момента в който приказва с потребителя.

Като се има поради фактът, че Фристън в никакъв случай не е имал нито една работа без съавтори в цялата си научна биография, може да се допусна, че той е надарен уредник на научни проучвания, освен това с военни цели. Самият той не крие, че разработките му имат военно предопределение.

„ написа Фристън ( както постоянно със съавтори ) в публикация, оповестена на уеб страницата на Националния център за биотехнологична информация, водещ боен проучвателен център на Съединени американски щати.

Талантливият физик Робърт Опенхаймер управлява интернационалния екип на атомния „ Проект Манхатън “ през четиридесетте години на предишния век. Талантливият невролог Карл Фристън наподобява се готви да стане началник на интернационалния екип на плана AI, чиято военна ориентировка към момента е деликатно скрита.

Фактът, че тревожните резултати на самостоятелни откриватели, които демонстрират неадекватността на общоприетите оценки на AI моделите, се подценяват както от екипа на Фристън /Fristogn/, по този начин и от други американски разработчици на AI модели, не вещае нищо положително за човечеството

Безкрайната конкуренция на AI в условия, при които всички чатботове, без изключение, са в несъгласие с най-простата логичност, заплашва с непредвидими последствия в региона на приложението на AI във въоръженията.

Ракета с AI би трябвало просто да взема решение най-простите логичен проблеми, а не да сформира високо интелигентни текстове.

И в случай че броят на правилните отговори на най-простите въпроси е петдесет на петдесет, тогава такава ракета няма ли да бъде ориентирана даже към началната точка?

Превод: Европейски Съюз

Източник: Фонд Стратегической Культурый

Поглед Видео:ПоследниНай-гледаниАлтернативен Поглед13249Д-р Галин Дурев: Възможно е не да отидем на избори с две ДПС-та, а изобщо то да не взе участие!Алтернативен Поглед11226Д-р Галин Дурев: Курск може да стане разменна монета в едни договаряния - територия за територияАлтернативен Поглед18830Д-р Цветеслава Гълъбова: Младостта не е специалност и постижение. Тя просто се даваАлтернативен Поглед14743Д-р Цветеслава Гълъбова: Италия е по-добре от нас - за 48 години е имала 58 правителстваАлтернативен Поглед26104Д-р Христо Лафчиев за финансовото иго на нашите деца и внуци, което се залага днесАлтернативен Поглед229965Д-р Христо Лафчиев: Само за договорката за новите нуклеарни блокове в АЕЦ " Козлодуй " ние ще загубим 50 милиарда $  Искра Баева, деветдесета година, България, пиянството на един народ, измененията  Искра Баева, деветдесета </div>

</article>
<style>
.youtube{
  width:100%;height:500px;
}
@media only screen and (max-width: 600px) {
.youtube {
    height:250px;
  }
}
</style>
<div style=Източник: pogled.info


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР