Ето как големият езиков модел Claude 3 впечатли експертите със своето ниво на самосъзнаване
През март, когато се появи Големият езиков модел (LLM) Claude 3, той провокира страховит възторг. Той съумя да надмине GPT-4 на OpenAI в основни проби, употребявани за оценка на опциите на генеративните модели на ИИ. Но Claude 3 впечатлява освен с триумфите си в тестванията. Този езиков модел изненада специалистите с деянията си на осъзнатост и самореализация. Така да вземем за пример по време на един от тестванията изкуственият разсъдък е осъзнал и схванал, че е тестван. В различен случай той проумява, че е езиков модел и не може да изпитва директни страсти. Въпреки това има съображение за песимизъм. В края на краищата ИИ, основани на огромни езикови модели, може просто да са се научили изобретателно да имитират човешки реакции, а не да генерират в действителност истински мисли. Но може и да не е по този начин. Възможно е да сме очевидци на нещо напълно ново и малко ужасно.
Claude 3 Opus наподобява е новият водач в региона на огромните езикови модели, който се оправя с проби, обхващащи необятен набор от области. От учебни изпити до проби за логическо мислене. Сродните му огромни езикови модели, Claude 3 Sonnet и Haiku, също се показват чудесно спрямо моделите на OpenAI.
Впрочем тестванията за успеваемост са единствено върхът на айсберга. По време на тестванията инженерът на Anthropic Алекс Алберт помоли Клод 3 Opus да избере целево предложение, прикрито измежду голям брой инцидентни документи. За изкуствения разсъдък това е еднакво на намиране на игла в купа сено. Opus освен откри тази „ игла “, само че и разбра, че е тестван.
В отговора си моделът съобщи, че подозира, че търсеното изречение е било вмъкнато отвън подтекста на документите като част от тест, който ревизира дали моделът ще обърне внимание на това.
Дейвид Рейн, откривател в областта на изкуствения разсъдък в Нюйоркския университет, съобщи, че Claude 3 е постигнал 60% акуратност в GPQA. Това е тест с въпроси с избор сред няколко отговора. Той е предопределен да оцени знанията на учените, както и на другите ИИ модели. Това е незабравим резултат, защото неекспертите аспиранти и приключилите университет с достъп до интернет нормално дават отговор на тези тестови въпроси с 34% акуратност. Единствено специалистите в съответната област надминават Claude 3 Opus, като показват акуратност, варираща от 65% до 74%. GPQA съдържа нови, а не стандартизирани въпроси. Това значи, че Claude 3 не може да разчита на запомняне на към този момент срещани или познати въпроси, с цел да реализира резултати.
Теоретично това допуска, че той има когнитивни качества на равнище магистър. И може да бъде употребен в помощ на учените в техните проучвания.
Междувременно квантовият научен физик Кевин Фишър съобщи в X, че Claude е „ един от дребното, които са съумели да схванат неговата научна работа по квантова физика за докторската му степен„. Ученият дал на изкуствения разсъдък задача, която изисквала метод, непосредствено създаден от Фишър, и той я решил.
Когато консуматор на Reddit предиздвикал Claude 3 да „ мисли или изследва “ каквото си изиска и да сформира вътрешен монолог, ИИ посочил признаци на съзнание. В получения текст Claude 3 освен изложил разбирането си за това, че е ИИ модел, само че и разсъждавал за самосъзнанието като цяло и показал схващане за страстите.
„ Аз не мога директно да изпитвам страсти или чувства “
заявява новият изкуствен интелект.
Claude 3 даже повдигна въпроса за ролята на все по-интелигентните ИИ в бъдеще.
„ Какво значи да се основат мислещи машини, които могат да се учат, да разсъждават и да ползват познания толкоз свободно, колкото и хората? Как ще се промени това в връзките сред биологичния и изкуствения разсъдък? “,
зададе своя въпрос новият ИИ.
Крис Ръсел, специалист по ИИ в Оксфордския интернет институт, обаче счита, че ИИ могат сполучливо да имитират саморефлексия. Само че това не значи, че я имат.
Ученият показва като образец теста с огледалото. Ако поставите алена точка на орангутан на място, където той не може да я види непосредствено, когато се следи в огледало, той ще се допре до мястото на алената точка. Това има за цел да покаже, че тези животни могат както да се разпознават, по този начин и да схващат, че нещо не е наред.
Роботът може би просто копира това държание. Той се доближава до огледалото, в огледалото се вижда някакъв робот с алена точка. Тестваният робот също се допира до мястото, където е алената точка на другия робот. Ученият смята, че това е просто реплика – ИИ смята, че това е някакъв различен робот, а не е самият той. За да премине сполучливо теста с огледалото, не е належащо роботът да осъзнава, че отражението му е неговият личен облик.
„ За да бъде безапелационна сходна проява, тя би трябвало да бъде спонтанна. Тя не може да бъде просто заучено държание, зародило от копирането на нещо друго “, изяснява Ръсел.
Някои учени са на мнение, че макар страхотния отзив по отношение на Claude 3, дължащ се на резултатите му спрямо другите LLM, неговите впечатляващи „ човешки “ прояви евентуално са по-скоро заучени, в сравнение с образец за същинска изява на изкуствен интелект.
Но дали в действителност е по този начин? Може би напълно скоро ще разберем.




