Той не звучи много умно“, халюцинира, лесно се подхлъзва по

...
Той не звучи много умно“, халюцинира, лесно се подхлъзва по
Коментари Харесай

„Колосално неразбиране“: Какъв всъщност е замисълът на BgGPT?

Той не звучи доста „ мъдро “, халюцинира, елементарно се подхлъзва по операции и даже се отхвърли от основателите си и българските си корени. Определян е като „ гаф “, „ злополука “ и артикул, който подкопава другояче позитивния имидж на Института за компютърни науки, изкуствен интелект и технологии (INSAIT). Стана мотив и за поредна доза остри рецензии против страната за това, че е хвърлила „ милиони левове “ (колко тъкмо не се знае) в поддръжка на основаването му.

Той е BgGPT, дълго чаканият огромен езиков модел на български език, който проработи публично точно на 3 март. Броени часове след стартирането му обществените мрежи бяха залети от подигравателни мемета и мнения по негов адрес.

„ Това е начален модел, след няколко седмици ще е още по-добър и ще се почиства “, съобщи в негова отбрана създателят на INSAIT Мартин Вечев в изявление пред bTV. 

На фона на крайните мнения против BgGPT специалисти в региона на осведомителните технологии и науката за данните означиха, че огромният езиков модел на INSAIT надвишава рамките на обществения чатбот и не трябва единствено на база интеракцията с него – и то на толкоз начален стадий в развиването му – да се вършат генерални заключения. 

Подигравките по адрес на BgGPT са симптом на колосално недоумение какво прави този модел и за какво в действителност е огромната работа “, разяснява пред Economic.bg Доброслав Димитров, ръководител на Българската асоциация на софтуерните компании (БАСКОМ). 
Важен е подтекстът
Платформата, до която всеобщият български консуматор получи достъп точно на 3 март, е нещо като демо или просто един вид на модела, който INSAIT са основали. Тази версия е пригодена да извършва всевъзможен тип задания, с цел да може да се тества от всеки. И таман тук е прикрит един от ключовете към (не)разбирането на BgGPT – хората го съпоставят с чатботове, които към този момент съществуват, само че това не е задоволително единствено по себе си. 

„ Това, че не се оправя доста добре на едно такова всеобхватно поле на деяние, е изцяло разумно “, разяснява пред Economic.bg лингвистът и специалист по данни в „ Отнотекст “ доктор Никола Тулечки. 

Това не е крайният артикул, а единствено едно демо, което INSAIT са пуснали. То не е това, което се чака българският бизнес да употребява. “ 

Според Никола Тулечки е доста значимо да се има поради подтекста към основаването и задачата на BgGPT. „ Той се оправя по-зле спрямо моделите на OpenAI и това е безусловно предстоящо “, разяснява специалистът и изяснява повода – „ Моделът на INSAIT е доста по-малък и е подобен по дизайн “. 

С други думи, той въобще не е основан да се конкурира с ChatGPT на база всеобхватни знания.

Да, сигурно ще позволява неточности, ще халюцинира и така нататък, само че това е част от същността на тези модели. Те по тази причина могат да вършат нещата, които вършат, тъй като не са линейни, могат да позволяват неточности и да се учат “, прибавя Доброслав Димитров, ръководител на БАСКОМ.

Припомняйки по какъв начин единствено преди към година хората се подиграваха на ChatGPT, че не знае по какъв начин се прави таратор, той споделя, че настоящето присмиване на неточностите на BgGPT е напръскване на сила в неверната посока. Вместо това, по-показателна за опциите му е да вземем за пример бързината му на работа.

В тази връзка Никола Тулечки добавя, че част от достижението на INSAIT се състои точно в избора на архитектура, която най-добре да пасне на задачите на приложение. 
Размерът има значение 
Големината на един езиков модел най-общо казано се дефинира от броя на параметрите, по които работи той. Когато през януари INSAIT стартира BgGPT за първи път, заяви, че той разполага със 7 милиарда такива. За съпоставяне, моделите GPT3 и GPT4 на OpenAI могат да се похвалят надлежно с 200 милиарда и 1.3 трилиона. Разликата е голяма, само че: 

Това, че един модел е огромен, не е наложително хубаво “, акцентира Никола Тулечки и показва една от главните аргументи – „ колкото по-голям е един модел, той става доста по-скъп освен за трениране и основаване, а за прилагане “.

Никола Тулечки изяснява, че с цел да може да работи ефикасно един модел, всички негови параметри би трябвало да могат да се заредят в паметта на употребяваната инфраструктура. За съпоставяне, една графична карта поема модели с сред 7 и 14 милиарда параметъра. Над тази граница ще би трябвало втора, което оскъпява процеса.

INSAIT желаят да създадат дребен модел, с цел да може той да се употребява налично от българския бизнес “, показва Никола Тулечки.

Той дава образец с GPT4, който – с цел да отговори на едно питане – вкарва в деяние няколко графични карти. „ Зад това седи една инфраструктура, която коства към милион $. “

В този ред на мисли това, че BgGPT не е с размерите на моделите на OpenAI да вземем за пример, е напълно умишлено решение и е обвързвано с концепцията българският модел да бъде елементарно и бюджетно наличен. 

Моделите на OpenAI могат да се употребяват единствено от доста, доста огромна инфраструктура. Докато INSAIT са създали модел, който може да се употребява от всеки – на лична инфраструктура и на релативно ниска цена “, показва Никола Тулечки.

Той прибавя, че не е наложително компаниите да влагат в закупуването на лични графични карти, а могат да наемат облачна инфраструктура, върху която да смъкват и обучат своя модел.
Отворен, с цел да бъде приспособен
Малките му размери и отвореният му темперамент разрешават българският езиков модел да бъде свален на лична инфраструктура и приспособен към характерните потребности на дадена компания или институция. 

Няколко образеца за вероятни интеграции:
моделът може да бъде употребен за създаването на интерфейс сред дадена институция и жителите, тъй че да се размени индивида на гише. „ Когато да вземем за пример желаете си платите локалния налог, инструментът може ви изясни доста ясно за какво, какъв брой и къде би трябвало да го извършите, като ще ви спести досадно ровене из страниците на общината “, дава образец Доброслав Димитров.може също по този начин да се закачи към някакъв вътрешен източник на данни и да служи още веднъж като интерфейс, който да оказва помощ на работещите в тази институция да си приказват по по-продуктивно с данните, които са събрали. „ Представете си някакво да вземем за пример доста, доста добре работеща търсачка върху вътрешните големи масиви от данни, която да може да ги осмисли, като намира текстови документи, само че и връща смислени, аналитични отговори на база на информацията, която се съдържа в тях “, дава образец Никола Тулечки.компанията, която се занимава със законодателна материя, може да построи личен модел, който да е извънредно потребен на юристите в нея, тъй че да могат да си приготвят контракти, да съпоставят законодателства сред на другите страни, където оперират и пр.в сферата на образованието може да се образова личен модел върху характерни данни от учебниците на съответно издателство да вземем за пример, благодарение на който да се дават спомагателни уточнения върху материала. 
На въпрос подготвени ли са българските институции и бизнес да припознаят нуждата от вложения в такива модели, Доброслав Димитров споделя, че особено IT компаниите към този момент го вършат. А що се отнася до администрацията, има някои самодейни общини, като бургаската да вземем за пример, които съгласно него също са отворени да яхнат вълната. Специалисти, които да схващат от последващото обучаване на модела за личните потребности на бизнеса, също има, споделя той. 

Това е инструмент – доста, доста мощен инструмент – който може да бъде употребен от много необятен кръг от IT експерти, които пък да подкрепят живота на такива като мен и вас. Това е огромната вест. И тежката задача е решена от INSAIT “, разяснява Доброслав Димитров. 
Науката и българският език 
Част от тази „ тежка задача “ е тренирането на езиковия модел съответно с български данни. Мнозина се пробваха да парират този ход с коментара, че модели като ChatGPT към този момент се оправят доста добре на нашия език. Според Никола Тулечки и Доброслав Димитров обаче това, че BgGPT е изначално подготвен на локалния език, му дава преимущества, които ще са потребни таман при последващите му приложения. 

ChatGPT да вземем за пример е подготвен най-вече с данни на британски език и най-вече в подтекста на американското законодателство. Това значи, че той е доста по-полезен за техните проблеми и проблематики, в сравнение с един българин. Защото чисто и просто данните, с които е подготвен, не са наши “, изяснява Доброслав Димитров.

Никола Тулечки още веднъж обръща внимание, че не фактологията е мощната страна на модела, а това, че е теоретичен „ да схваща българския език в неговите нюанси “. 

„ Оттам нататък се изисква спомагателна работа върху отворения модел, тъй че да се научи да взема решение някаква съответна задача. “

Необходимостта от наш личен модел е безусловно наложителна, защото без лична суверенна просвета в тази посока нямаме кой знае какъв късмет и за нас би останало това, което по случайност огромните са се сетили да ни извърнат внимание “, прибавя Доброслав Димитров.
Източник: economic.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР