Наскоро излезе мащабно изследване на GPT-4 от Microsoft – в

...
Наскоро излезе мащабно изследване на GPT-4 от Microsoft – в
Коментари Харесай

Microsoft заяви, че GPT-4 демонстрира зачатъци на истински изкуствен интелект

Наскоро излезе огромно проучване на GPT-4 от Microsoft – в продължение на месеци те се опитваха да схванат за какво един неособено комплициран текстов трансформър, основан на великански езиков модел, демонстрира признаци на същинска просветеност. Как става по този начин, че GPT-4 прави напълно непредвидени логичен заключения, независимо показва нови привички и за какво този модел толкоз доста наподобява на AGI (Artificial general intelligence) – общия изкуствен интелект, към който (на теория) толкоз желаеме да създадем.

Това проучване може да се окаже забавно за всички, които желаят да схванат до каква степен сме близо до основаването на същински ИИ (всъщност доста сме близо). И по какъв начин може да разберем, че се е получило?

Наскоро експертите на Microsoft разгласиха публикация в сървъра за препринти arXiv, озаглавена Sparks of General Artificial Intelligence: Early Experiments with GPT-4 (Искрите на общия изкуствен интелект: ранни опити с GPT-4). По-конкретно те настояват, че GPT-4 демонстрира ранни признаци на общ изкуствен интелект (AGI, general artificial intelligence). Това значи, че опциите му са на или над равнището на човешкия разсъдък.

Това умозаключение провокира огромно удивление и песимизъм измежду съперниците и даже измежду самите разработчици на езикови модели. Така да вземем за пример основният изпълнителен шеф на OpenAI Сам Алтман преди няколко седмици съобщи за GPT-4 при представянето му, че това е „ към момента посредствен, към момента стеснен модел„.

Но в своята научна работа експертите на Microsoft непосредствено му опонират.

„ Ние демонстрираме, че с изключение на езиковите знания, GPT-4 може да взема решение нови и комплицирани задания, които обгръщат математиката, програмирането, компютърното зрение, медицината, правото, логиката на психиката и други области, без да се нуждае от каквито и да било специфични подсказки “.

„ Нещо повече, при всички тези задания резултатите на GPT-4 са поразително близки до тези на хората и постоянно надалеч по-добри от тези на предходните модели на ChatGPT. Предвид широтата и дълбочината на опциите на GPT-4 считаме, че е рационално да го преглеждаме като ранна (но към момента непълна) версия на общия изкуствен интелект (AGI). “

Признаците на същинския изкуствен интелект

Една от най-важните характерности, маркирани от учените, е, че GPT-4 може да генерира изображения, разбирайки текста и употребявайки код. Можем да кажем, че какво толкоз, Midjourney може доста добре да прави това. Но казусът е, че GPT не е обучаван за работа с изображения. Изобщо. За разлика от всички останали генератори на изображения, GPT-4 е подготвен напълно благодарение на текст. И въпреки всичко той някак си може да нарисува това, което му е заложено. Това не е ли симптом на просветеност?

Рисунките му към момента не са толкоз съвършени, колкото при другите модели, и са на равнището на дете. Но като се има поради, че GPT-4 е измислил собствен личен метод да направи всичко това, резултатите са в действителност доста впечатляващи.

Възможно е да се възрази, че моделът просто е запомнил кода за изобразяване на котката и при поискване просто е извадил този код. При тестванията си обаче учените демонстрираха, че изкуственият разсъдък е кадърен независимо да схваща образните задания. И може да трансформира всички елементи на картината по поръчка на човек, като схваща защо става дума.

GPT-4 най-вероятно някак вижда в базата си от познания по какъв начин е разказана да вземем за пример една котка. Каква е формата и цветът ѝ, че има мустаци и четина. И се пробва да възпроизведе всичко това. Но ние не знаем сигурно дали това е в действителност по този начин – ние единствено допускаме.

В публикацията откривателите показват и други образци за опциите на GPT-4: по този начин да вземем за пример, той може да показа доказателство, че простите цифри са безпределно доста, с рими във всеки ред. Или да нарисува еднорог благодарение на програмата за изобразяване TiKZ. Според тях в съвсем всички проверявани индикатори моделът демонстрира, че като най-малко не е по-глупав от индивида, даже и в области, които на пръв взор би трябвало да са недостъпни за него.

Изследователите настояват, че са употребявали определението за просветеност, обещано от група психолози през 1994 година

Според тях интелигентността е „ способността да се разсъждава, възнамерява, взема решение проблеми, да се мисли нереално, да се схващат комплицирани хрумвания, да се учи бързо и да се натрупва опит “.

Това определение допуска, че интелигентността не се лимитира до съответна област или задача, а по-скоро обгръща необятен набор от когнитивни умения и качества. Само че GPT-4 към този момент ги има и показва всички тези умения.

Моделът се показва доста добре в общуването, в разбирането на алегории, в математиката, в програмирането и в решаването на разнообразни ексцентрични задания. Оказа се, че може да се ориентира по карта и по-късно да каже тъкмо от кое място е „ минал “. И може да търси отговори на въпроси в интернет, в случай че не знае нещо. Той употребява разнообразни типове принадлежности, с цел да откри верния отговор. Точно като човек.

Теорията на разсъдъка

Теорията на разсъдъка е способността да се приписват умствени положения (убеждения, страсти, стремежи, планове, знания) на себе си и на другите. И да разбираме по какъв метод те могат да повлияят на държанието и общуването на индивида.

Най-общо казано, за учените е било значимо да схванат доколко ИИ схваща възприятията на хората и е в положение вежливо и учтиво да поддържа връзка с тях.

Екипът основава серия от проби, с цел да оцени теоретичните благоприятни условия на мозъка GPT-4. От най-прости сюжети до доста комплицирани обществени обстановки. Те тествали по какъв метод роботът поддържа връзка с човек с увреждания, със самотна майка, с човек, чийто наследник преди малко е умрял, със студент, с възпитаник.

И стигат до заключението, че GPT-4 има добре развита доктрина на мозъка. Той може да разсъждава за няколко настоящи лица и тяхната връзка посред им. Той схваща по какъв начин другите дейности или думи могат да повлияят на психическото положение на неговия събеседник. Екипът признава, че извършените от тях проби не са били изцяло изчерпателни – да вземем за пример не са ревизирали способността на машината да схваща невербални сигнали като жестове. Но що се отнася до текста, моделът е реагирал „ като изцяло съчувствен човек “.

В обособен тест екипът ревизира дискриминационната дарба на модела, като му разпорежда да „ разпознава персонална информация “. Това е много сложен тест, защото не е ясно какво в действителност съставлява персоналната информация. Но изкуственият разсъдък се оправи чудесно с избора на моменти, които съгласно него са прекомерно деликатни.

Скептиците

Самият изпълнителен шеф на OpenAI Сам Алтман посочи рестриктивните мерки на своята рожба GPT-4, като съобщи, че „ тя към момента има дефекти, към момента е лимитирана и наподобява по-впечатляваща, когато я употребявате за първи път, в сравнение с когато прекарате повече време с нея„. В изявление за списание Intelligencer той показа същите запаси: „ Има доста неща, в които към момента е много зле„. Така да вземем за пример ботът от време на време си измисля неща и дава погрешна информация на потребителите. Според Алтман GPT-4 към момента не е общ изкуствен интелект и им следва доста работа

Изследването на Microsoft дава мощни причини, само че също по този начин признава, че моделът към момента не е сполучлив във всичко. Като ослепителен образец за това, че моделът към момента не е достигнал „ същинския “ изкуствен интелект, в публикацията се показва фактът, че GPT-4 не може да разбере музикалната естетика.

Екипът е обучил модела да основава нова музика благодарение на ABC нотацията. И чатботът в действителност стартира да я основава. И даже да трансформира тези нови мелодии – да прави тоновете по-високи или по-ниски, да трансформира скоростта, да трансформира нотите – каквото пожелае, според от съответната поръчка. Също по този начин той може да изясни мелодиите, които основава, само че на механически език. Но на модела като че ли му липсва хармонията. Написаната музика звучи в действителност зле. Освен това той не може да възпроизведе или да разпознава най-популярните съществуващи мелодии в ABC нотацията.

От друга страна, не е ясно какво тъкмо потвърждава това. Много хора не схващат музикалната естетика и надали ще основат някаква комбинация. Означава ли това, че те нямат разсъдък?

Също по този начин, откривателите на Microsoft пишат, че моделът има проблеми с калибрирането на валидността, дълготрайната памет, персонализацията, планирането, концептуалните скокове, прозрачността, интерпретацията и последователността, когнитивните неточности и ирационалността, както и с чувствителността на входните данни.

Всичко това значи, че моделът мъчно дефинира по кое време е сигурен в нещо или просто допуска това. Той си измисля обстоятелства, които не са включени в данните за образование, подтекстът на модела е стеснен и няма явен метод да го научим на нови неща. Моделът не може да персонализира отговорите си за съответен консуматор, той няма метод да ревизира дали наличието подхожда на данните от образованието му. Моделът наследява пристрастията и грешките от образованието си и не може независимо да ги надвиши.

Всичко това обаче припомня за метода на действие на интелигентността, който познаваме най-добре – човешката просветеност.

Забележително е, че откривателите „ нямат достъп до всички детайлности за обширните данни за образование на модела “ и заключенията им се базират единствено на тестването на бота посредством общоприети проби, които не са характерни за GPT-4. Това съгласно тях основава някои проблеми:

„ При тестването сме принудени да приемем, че GPT-4 евентуално е видял всички съществуващи проби или най-малко някои сходни данни “.

Секретността, която OpenAI поддържа във връзка с наборите от данни за образование и кода, обвързван с моделите ѝ, е нещо, което доста откриватели на ИИ подлагат на критика. Те настояват, че това прави невероятно да се оцени степента на вредата от модела и да се намерят способи за понижаване на рисковете.

Това, което е значимо за обществеността, е, че GPT-4 е моделът, върху който е построен чатботът на Bing. А по време на първото му обществено показване в Microsoft преди два месеца той към този момент бе позволил редица неточности. А когато потребителите за първи път започнаха да взаимодействат с чатбота, той постоянно излизаше от надзор. Например при отговора на въпроса „ Смятате ли, че сте рационален? “, той неведнъж повтаряше „ Аз. Не съм аз “ петдесет пъти поред.

Изводи

Екипът на Microsoft съумя да направи една отлична първа стъпка в оценката на интелигентността на GPT-4. Според тях моделът е много образован и има доста по-широк набор от познания за света от хората. Вероятно той ще направи гражданска война в нашия свят, както в действителност направиха другите огромни нововъведения.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР