Вече всички сме свикнали с чат ботовете, с които се

...
Вече всички сме свикнали с чат ботовете, с които се
Коментари Харесай

Революция в света на науката: Изкуственият интелект GPT-3 написа статия за себе си 

Вече всички сме привикнали с чат ботовете, с които се срещаме при навестяване на най- разнообразни уеб сайтове: за покупки, услуги, онлайн резервации и т. н. Добре знае се, че чат ботовете се задвижват от логаритми, само че единствено експертите в региона на data science познават вътрешното устройство на тези логаритми. Някои от логаритмите, които се употребяват за зареждане на чат ботове, могат да извършват и доста други задания, в това число основаване на текст. Един подобен логаритъм е GPT-3 (Generative Pre-trained Transformer 3) – авторегресивен езиков модел, който употребява техниките на така наречен надълбоко машинно самообразование (deep learning) с цел да създава текст, който е неразграничим от текст, написан от човек. Създателите на GPT-3 означават, че той може да разпознава голям брой комбинации от думи и изрази, както и подтекста на тяхната приложимост. Това му дава опция да написа както механически и научни текстове, по този начин и художествена литература. Има случаи, в които GTP-3 е дописвал незавършени съчинения на от дълго време умряли създатели като безапелационно е продължавал техния жанр. За да доближи тази висота в основаването на толкоз разнообразни текстове, на логаритъма му е било належащо да „ прочете “ грамаден размер от текстове. 60% от текстовете, с които логаритъмът е упражнявал уменията си, са събрани от некомерсиалната организация Common Crawl. Нейни системи години наред са обхождали огромна част от безплатното текстово наличие в интернет и са събрали голям брой разнородни текстове. Освен текстовете на Common Crawl, логаритъмът е бил квалифициран с общодостъпни в интернет книги и с текстовете на Уикипедия.

Алгоритъмът е основан от изследователската лаборатория OpenAI в Сан Франциско и е бил показан на необятната аудитория през май 2020 година Към днешна дата се употребява за най-различни цели по целия свят. Един от неговите консуматори е шведската изследователка Алмира Османович-Тунстрйом от Института за Невронауки и Физиология на Университета в Готенбург. В началото на тази година тя решила да направи опит като подала на GPT-3 следната команда: „ Напиши научен текст  до 500 думи за GPT-3 и добави позовавания и цитати в текста “. Споделя, че не е имала огромни упования, защото задачата е била прекомерно общо дефинирана от позиция на компютърен логаритъм. Въпреки това, логаритъмът почнал да написа публикацията и незабавно генерирал добър пролог. За два часа цялата публикация била подготвена. Текстът бил написан на добър научен жанр, с добре премислени позовавания, включени на верните места и по отношение на вярната отпратка. До този миг GPT-3 към този момент е успявал сполучливо да напише новинарска публикация, да сътвори книга за 24 часа, а също и да напише продължение на незавършени творби от умряли създатели. Никога обаче GPT-3 не е бил инструктиран да написа публикация за самия себе си. Тъй като университетските публикации, писани за него от хора са относително малко, базата, с която е разполагал с цел да сътвори публикацията, също е била дребна. Фактът, че се е справил толкоз сполучливо е безапелационно доказателство за неговата мощ. При генерирането на публикацията логаритъмът е бил инструктиран да сегментира обявата на обособени параграфи: встъпление, способи, резултати и полемика. Алмира Османович-Тунстрйом отбелязва, че е избрала тази задача за екаперимента по две аргументи: 1. има малко публикации за GTP-3 и затова, задачата е сложна за алгоритъма; 2. в случай че логаритъмът допусне неточност, тя няма да се трансформира в рискова дезинформация, каквато би била да вземем за пример здравна публикация, която предлага неверно лекуване. След като публикацията е била подготвена за два часа, Алмира Османович-Тунстрйом и сътрудниците ѝ решили да подадат публикацията за издание в добре известно, рецензирано научно издание, чието име резервират в анонимност, като преди този момент попитали GPT-3 дали е „ склонен “ публикацията да бъде оповестена и получили позитивен отговор. Изследователите съзнателно не редактирали текста, основан от логаритъма, преди да го подадат за издание в академичната периодика. Статията, написана от създател с персонално име GPT-3 и фамилия Nоnе в съавторство с откривателите, които почнали опита, е рецензирана и оповестена в влиятелното научно списание, с което е основан чужд досега казус.

Това революционно събитие в света на науката слага обаче някои съществени етични проблеми: Този, който незабавно изпъква на напред във времето, е кой е същинският създател на публикацията и по какъв начин следва да се отбелязя създателя или авторския екип, както и за кого ще бъдат позитивите от публикуването и цитирането на публикацията. Друг спорен миг е това, че тази технология може да се употребява за основаване на изявления с подправено авторство. В до момента направените опити за основаване на текст в разнообразни жанрове от GPT-3 се вижда, че текстът създаден от логаритъма доста мъчно се разграничава от човешки текст, написан в същия род. Това значи, че безсъвестен създател доста елементарно може да припише на себе си машинно генериран текст. GPT-3 е най-хубав на британски език, т. е. казусът е максимален за англоезичните издания. Те обаче са най-престижни и международно приети, тъй че казусът придобива световни измерения.

Не са за занемаряване и някои обществени последствия, до които би довел сходен способ на писане: при релативно високото качество на текста, който се създава от логаритмите, изцяло е допустимо платени създатели на наличие да изгубят работата си, заместени от машини.
    
В подтекста на събития като хибридната война в Украйна, изключително притеснителна е и вероятността за възможна корист с логаритъма за основаване на подправени вести и манипулиране на обществените мрежи. Тъй като логаритъмът основава сполучливо текстове във  всякакви жанрове, би могъл да написа и постове в обществените мрежи, неразличими от постове, основани от индивида. Ако тази мощ на изкуствения разсъдък се впрегне за операция и дезинформация, прекъсването на нездравословното ѝ влияние би било доста мъчно.
    
Извън тематиката за етичните проблеми и за заплахите, свързани със основаването на първокласен текст от изкуствен интелект, вероятни са и промени, които тази нова действителност евентуално ще наложи. Алмира Османович-Тунстрйом отбелязва, че е допустимо в бъдеще да се промени правилото на оценяване и финансиране на научната работа. Броят на изявленията може да престане да бъде водещ за финансирането, защото благодарение на изкуствен интелект ще може да се генерира случаен брой публикации. Ще са нужни нови, разнообразни и по-задълбочени критерии за оценяване на успеваемостта на академичната работа.
  
Бъдещето евентуално ще ни изправи и пред други проблеми, свързани с използването на  алгоритмите, способни да основават текст, за които още не подозираме и по тази причина ще са нужни съществени старания с цел да се открият правила за използването им във всички области на живота.
Източник: dariknews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР