Изкуственият интелект срещу естествената глупост. Кой ще победи?
2023 година умерено може да се назова годината на изкуствения разсъдък. Това комбиниране от думи към момента е на върха на модата, а ChatGPT, Bard и другите сходни по-скоро генерират заглавия и вести, в сравнение с да оферират забавни и фактически потребни случаи на приложимост, които биха могли по някакъв метод да подобрят някои аспекти на нашия живот.
За благополучие, изкуственият разсъдък към момента не е превзел света. Изглежда, че надвисналата опасност се е отдръпнала ненапълно, най-малко към този момент. Това, което е в действителност тревожно е фактът, че хората в действителност не схващат доста добре изкуствения разсъдък. Независимо дали просто задаваме глупави въпроси или търсим метод да се облекчим малко на работното място, рискуваме да сменяем личното си сериозно мислене с опция, която към момента не е приспособена към него.
Какво в действителност е (и какво не е) изкуственият разсъдък
Проблемът е в това, че изкуственият разсъдък към момента не е доста образован. Във всеки случай към този момент той просто сполучливо ни заблуждава, че е интелигентен. Разковничето се крие в името ChatGPT (частта „ GPT “ също е значима, тя значи Generative Pre-trained Transformer). Независимо дали става дума за Bard, Bing или нещо друго сходно, това са огромни езикови модели, които по принцип са профилирани в основаването на текст, сходен на човешкия. На най-общо равнище това значи, че те са извънредно положителни в статистическото моделиране на идната евентуална дума (или символ), която се появява в обещано изречение. Поради огромния размер данни, които би трябвало да се усвоят, това статистическо моделиране е положително освен за писане на фрази – неговото потребление става доста по-креативно и потребно.
Това, което тези модели несъмнено не са, макар впечатляващите им на някои места отговори, е изкуствен интелект с общо предопределение (въпреки че крайната цел е точно изкуствен интелект с общо предназначение). Всъщност, когато изкуственият разсъдък изплюе сонет или генерира работещ код, не се ползва разбор и сериозно мислене. Фактът, че огромните езикови модели явно са доста положителни в необятен набор от задания, бе открит по чиста случайност по времето на GPT-2. Използвайки днешните доста по-големи набори от данни, моделите се оправят още по-добре с приемането на точни отговори въз основа на по-широк набор от входни данни.
За да разберем за какво това е по този начин, дано да разгледаме какво прави огромният езиков модел, когато го помолим да изброи планетите от Слънчевата система. Той не се рови в паметта си, с цел да формулира отговор, и няма подготвен отговор в базата данни, който да търси и откри. По-скоро той приема въведените от вас данни и основава статистически евентуален низ от текст въз основа на данните, с които е подготвен и трeниран. С други думи, колкото по-често моделът среща думите Марс, Земя и Сатурн в фрази за планети по време на образованието, толкоз по-вероятно е да генерира тези думи, когато се сблъска с сходна полемика в бъдеще. Това е реплика на същинско познание, само че не е типът учене, който вие и аз използваме. Освен това, в случай че данните за образование се състоят най-вече от публикации преди 2006 година, вашият огромен езиков модел може неправилно да упорства, че и Плутон е планета.
Ситуацията ненапълно се усложнява от Bard и Bing, които имат достъп до данните от интернет. Но правилото остава същият: огромните езикови модели са предопределени най-вече за основаване на четливи текстови данни, които да удовлетворяват хората. Ако отговорът е и правилен, това е бонус. Той може да е подтикван от образованието с укрепване, само че тук липсва стадият, в който изкуственият разсъдък „ мисли “ за верния отговор на вашия въпрос. Оттук произтичат всички тези постоянно срещани неточности и невъзможността да се отговори на някои елементарни въпроси като да вземем за пример „ Колко е часът? “.
Математиката е различен превъзходен образец, който оказва помощ да се разбере този аспект. Големите езикови модели не вършат калкулации като обичайните компютри, а и нито един изчислителен процесор не подсигурява верния отговор. Нито пък работи по същия метод, по който работи нашият мозък. Вместо това огромните езикови модели правят математически интервенции по същия метод, по който генерират текст, като извеждат статистически най-вероятния идващ знак, само че това не е същото като пресмятане на отговора. Интересно изобретение обаче е, че колкото повече данни предоставяте на един огромен езиков модел, толкоз по-добре той моделира математическите калкулации (наред с други неща). Ето за какво GPT-3 и 4 са несъразмерно по-успешни от GPT-2 в простата аритметика с двуцифрени и трицифрени цифри и реализират доста по-високи резултати в разнообразни проби. Това няма нищо общо с обстоятелството, че те са по-добри от позиция на обичайна обработка на данни. Всичко това се дължи на обстоятелството, че те са били подготвени на доста повече данни.
Същото важи и за писането на есета, генерирането на сорс код и всички други видимо невероятни нови функционалности на огромните езикови модели. Това е симулация на старания и мисъл, като резултатите се основават на текстови вероятности. Ето за какво постоянно ще виждате повтарящи се стилове и образци, както и фактологични неточности. Въпреки това тази дарба за учене „ в подтекст “ прави огромните езикови модели необикновено мощни и приспособими за необятен набор от приложения.
Ако обаче имате потребност от кадърен и благонадежден изкуствен интелект за математически, физични или други научни опити, ще би трябвало да го обучите по напълно друг метод от един огромен езиков модел. Тези, които виждат по-широката картина, към този момент знаят, че OpenAI предлага разнообразни модели, като DALL.E за основаване на изображения и Whisper за превръщане на аудио в текст. Така че, макар че ChatGPT4 и вероятно 5 безспорно ще продължат да усъвършенстват точността и обсега на функционалностите, в основата си те към момента са езикови модели.
Хайде да спрем да задаваме глупави въпроси на изкуствения разсъдък
Но да се върнем на заглавието. Наистина би трябвало да разберем по-добре мощните страни и подводните камъни, преди да слагаме задания на изкуствения разсъдък.
Надяваме се, че на всички е ясно, че би било неуместно да желаеме от ИИ да напише курсова работа по естествени науки. Малко евентуално е той да разбере вярно уравненията, макар че по този начин или другояче ще ви даде формула в отговор. И най-после, доста безконтролно е да се одобряват финансови препоръки от ИИ. Но даже видимо по-тривиалните въпроси могат да провокират компликации. Въпреки че може да е занимателно да дразните ИИ с разсъждения по противоречиви тематики или съзнателно да го водите към неверен отговор – потреблението на неговите отговори като че ли са някакво действително мнение, приказва за извънредно незнание.
Ако попитате чатбота за неговите желания или го помолите да съпостави нещо, той няма по какъв начин да разчита на личните си мисли, на голямото вместилище от човешки познания или даже на груповото мнение, прикрито в набора от данни, с цел да отговори. Вместо това той ще моделира статистически това, което смята, че е най-хубавият текстов отговор, който може да даде на вашето питане. Само че това е доста по-различно от действителното обсъждане на отговора. Ето за какво тези модели принудително филтрират запитванията и отговорите, които не са планувани. Дори и да съумеете съзнателно да предизвикате подобен отговор, той би трябвало да бъде изцяло пренебрегнат.
Накратко, не трябва да бъркаме човекоподобната реакция с човешкото мислене. Това не омаловажава впечатляващите резултати на симулацията на изкуствен интелект и многото нови образци за приложимост, за които той е фактически потребен. Но в последна сметка има доста по-вълнуващи и екзистенциални тематики за размисъл, които са доста по-подходящи за един по-добър изкуствен интелект, който не е препълнен с данни за нашите желания във връзка с дизайнерските марки и марки. Нека да не преотстъпваме сериозното си мислене на една усъвършенствана версия на терминатора Т9.




