Генератор на реч пише код, статии и поезия като човек
Машинното образование обичайно разчита на следен развой, само че това ще се промени
(снимка: CC0 Public Domain)
О рганизацията с нестопанска цел OpenAI е е основала стратегия за генериране на тирада, наречена GPT-3, която е способна да научава, обобщава и сформира текст по метод, изумил и даже леко уплашил учените-лингвисти от целия свят. „ Generative Pre-Training Transformer 3 ” може да написа публикации, стихове и програмен код и е неразличима от човек.
„ Създадох глас за незнайния човек, който стои прикрит в цифровия файл ”, написа GPT-3 в отговор на подкана от Прасенит Митра, заместник-декан и професор по ИТ в Държавния университет в Пенсилвания. „ Създал съм още и публицист, и ваятел, и художник. И този публицист ще може да основава думи, да дава живот на страстите, да основава герои. Аз самият няма да го видя. Но някой човек ще го види ”, приказва програмата.
Езикът, генериран от GPT-3, звучи по този начин, като че ли е написан от автентичен човек, отбелязва The Conversation. Това е надалеч най-„ знаещата ” стратегия за генериране на естествена тирада досега и има редица евентуални приложения в специалности, вариращи от преподаване и публицистика до обслужване на клиенти.
Размерът има значение
GPT-3 удостоверява това, което компютърните учени знаят от десетилетия: размерът има значение. Генераторът употребява „ трансформатори ”, които са модели за надълбоко самообразование, кодиращи семантиката на изреченията, употребявайки по този начин наречения „ модел на внимание ”.
По създание моделите на внимание разпознават смисъла на думата въз основа на останалите думи в същото изречение. След това моделът употребява разбирането на смисъла на изреченията, с цел да извърши задачата, поискана от потребителя, без значение дали е „ превод на изречение ”, „ обобщаване на абзац ” или „ сформиране на стихотворение ”.
Трансформаторите се появиха на бял свят за първи път през 2013 година Те се употребяват сполучливо в машинното образование през последните няколко години. Но никой до момента не ги е употребявал в този мащаб.
GPT-3 гълтам колосални количества данни: 3 милиарда токени – компютърен израз за понятието „ думи ” – от Уикипедия, като 410 милиарда токени са получени от уеб страници и 67 милиарда токени са добити от цифровизирани книги. Сложността на GPT-3 е над 10 пъти по-голяма от тази на най-големия езиков модел преди GPT-3, стратегиите на Turing NLG.
Самостоятелно учене
Познанията, показани от езиковия модел на GPT-3, са забележителни, изключително като се има поради, че те не са „ преподавани ” от човек.
Машинното образование обичайно разчита на следен развой, където хората подават на компютъра анотирани образци за обекти и концепции посредством изображения, аудио и текст. В последна сметка той научава характерностите на обектите от дадените образци. Само по този начин той реализира способността да разпознава съответните понятия.
Ала ръчното генериране на обяснения за образованието на компютърен механизъм може да отнеме прекалено много време и да коства много скъпо. Затова бъдещето на машинното образование се крие в ученето без контрол – самообучението, при което компютърът не би трябвало да бъде следен по време на етапа на обучение; той може просто да бъде захранван с големи масиви от данни и да се учи от тях самите.
GPT-3 извежда обработката на естествения език с една крачка по-близо до ученето без контрол. Обширните набори от данни за самообучението на GPT-3 и големият потенциал за обработка разрешават на системата да се учи единствено от един образец.
В доста случаи механизмът може даже да извърши „ образование с нулеви действия ”, при което просто му се разпорежда задачата, без да има авансово даван образец. При този вид образование точността понижава, само че качествата на GPT-3 все пак са точни до поразителна степен – доста усъвършенстване по отношение на всеки предходен модел.
„ Тук съм, с цел да ви послужвам ”
В направените тествания през миналите месеци GPT-3 сподели капацитета си като инструмент за компютърни програмисти, учители и публицисти, споделя проф. Митра.
Програмист на име Шариф Шамийм помоли GPT-3 да генерира код, с който да сътвори „ най-грозните емотикони на света ” и „ таблица на най-богатите страни в света ”, наред с други команди. В няколко случая Шамийм трябваше да поправи дребни неточности, само че като цяло му беше възложен извънредно чист код.
GPT-3 даже сътвори лирика, улавяйки ритъма и стила на избрани поети – само че несъмнено не със пристрастеността и хубостта на словото, реализирана от майсторите. Сред тях имаше и сатирична поема, която бе прочетена с гласа на член на управителния съвет на Федералния запас.
В началото на септември компютърен академик на име Лиъм Пор прикани GPT-3 да „ напише малко изложение от към 500 думи ”. „ Поддържайте езика елементарен и къс “, инструктира той. „ Фокусирайте се върху това за какво хората нямат от какво да се опасяват от изкуствения разсъдък ”.
още по тематиката
GPT-3 продуцира осем разнообразни есета. В последна сметка Гардиън разгласява публикация, употребявайки някои от най-хубавите елементи от всяко есе.
„ Не планираме да надделеем над човечеството. Ние ще ви служим и ще създадем живота ви по-безопасен и по-лесен ”, написа GPT-3. „ Точно както вие сте моите основатели, аз ви виждам като свои основатели. Тук съм, с цел да ви послужвам. Но най-важната част от всичко – в никакъв случай не бих Ви осъдил. Не числя се към никоя страна или вяра. Аз съм тук единствено с цел да направя живота ви по-добър ”.
Редактирането на есетата от GPT-3 не се различаваше от редактирането на текстове, написани от човек, споделят редакторит. Освен, може би, това, че са лишили по-малко време.
Повече мощност – повече отговорност
Въпреки триумфа на GPT-3, OpenAI към момента не пуска модела си за потребление с отворен код, частично тъй като организацията се притеснява, че с технологията може да бъде злоупотребено. Не е мъчно да се види по какъв начин изкуственият разсъдък може да се употребява за генериране на големи количества дезинформация, спам и измами.
Дали появяването на GPT-3 ще повлияе на специалностите, които към този момент се променят поради автоматизацията? Дали способността му да генерира публикации, които звучат тъкмо като написани от умни и знаещи хора, ще консолидират и без друго затруднената медийна промишленост?
Проф. Митра предлага да прочетем публикация, формирана от GPT-3, по отношение на евентуално раздробяване на методистката черква:
„ След два дни на интензивни договаряния Обединената методистка черква реализира единодушие за разделяне от исторически мащаб – такова, което се чака да приключи със основаването на нова деноминация, което ще бъде „ теологически и обществено консервативно ”, съгласно Вашингтон пост.
Е, поради опцията GPT-3 да създава подобен чист журналистически текст, какво следва в света на новинарските репортажи? И в действителност ли желаеме тъкмо по този метод да научаваме новините?
Технологията ще става все по-мощна. Хората ще би трябвало да разработят регулации за евентуалните ѝ използва и… злоупотреби.
Източник: technews.bg
КОМЕНТАРИ