Много важно е да се разбере, че генеративни модели като

...
Много важно е да се разбере, че генеративни модели като
Коментари Харесай

Димитър Димитров: Фокусът трябва да е върху създаването на ИИ, който се учи от по-малко данни

" Много значимо е да се разбере, че генеративни модели като ChatGPT могат да си измислят информация и хората не би трябвало да им имат вяра. Когато произведат някаква информация, тя би трябвало да се ревизира ".

Това съобщи пред БНР Димитър Димитров, разработчик и откривател.

Той споделя, че постоянно му се случва да употребява ChatGPT, с цел да намира по-сложна информация:

" Често го употребявам, с цел да диря някакъв необикновен код или математически теореми, които по принцип в Google доста мъчно се търсят. ChatGPT нормално съумява да даде бърз отговор. Проблемът там обаче е, че той не е образован по същия метод, по който ние го разбираме. Съответно едно от нещата, които той може да прави, е така наречен илюзия, което значи да си измисля информация ".

ChatGPT е доста потребен и в редактирането на текст, добави Димитров и изрече мнението си:

" За редактор на текст той в действителност е на равнището на професионален човек ".

Като значимо събитие в областта на изкуствения разсъдък през изминаващата 2023 година откривателят отличи:

" Достъпността на технологиите към генеративния изкуствен интелект като ChatGPT. Технологиите зад ChatGPT не са чак толкоз нови, колкото хората си мислят. Научната работа, която стои зад тях, е от към 2018 година В изследователските общности в последните 3-4 години се знаеше, че тези системи работят, само че казусът беше главно, че единствените хора, които можеха да ги упражняват, са огромните софтуерни компании. Най-голямата смяна в изкуствения разсъдък през 2023 година е фактът, че огромните компании започнаха да отварят тези модели по 2 метода. Има доста повече модели, които естествените хора могат да употребяват. Те са отворени и за откривателите. Това ни разрешава ние да разберем по какъв начин работят вътрешно и да ги създадем по-сигурни за потребление и по-добри в проблемите, които имат сега ".

Въпреки че ние сътворяваме този изкуствен интелект, не разбираме на 100% математически по какъв начин работи вътрешно, означи още Димитър Димитров.

" Това е така наречен феномен на черната кутия. На процедура ние упражняваме логаритъма да може да прави нещата, които може да прави. След като сме ги упражнявали, даже да виждаме числата в компютъра, които създават резултата, ние не ги разбираме. Това води до казуса, в който тези модели значително зависят от данните, които слагаш в тях. /.../ Контролът на данните и по какъв начин данните се употребяват оптимално през логаритмите в тези модели е методът, по който би трябвало да ги направляваме ".

Това, което съгласно Димитров ще има максимален резултат за в бъдеще, е в случай че фокусът е повече върху основаването на изкуствен интелект, който се учи от по-малко данни.

Източник: cross.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР