Ново оръжие в AI надпреварата: Самокритичният модел на DeepSeek
Китайският AI стартъп DeepSeek и откривателите от университета Цинхуа настояват, че са разкрили нов метод за основаване на по-умни и по-ефективни езикови модели. И всичко това – без да се постанова да ги вършат по-големи или по-скъпи, написа Euronews.
Компанията, която провокира вълна от звук още през януари със своя AI модел R1 – евтина, само че впечатляващо добра опция на ChatGPT – в този момент показва нова техника, която има капацитета да промени пазара за изкуствен интелект.
Тя носи името Self-Principled Critique Tuning (SPCT) и разрешава на моделите не просто да учат, а да си дават самокритика, като усъвършенстват отговорите си в действително време.
Как работи? Вместо
да разчитат на по-големи и по-ресурсни модели, от DeepSeek упражняват езиковия модел да развива свои лични правила, по които да преценя дали един отговор е първокласен. Така AI се учи по какъв начин да се „ самокритикува “ – изцяло самостоятелно.
Системата, наречена DeepSeek-GRM (Generative Reward Modeling), съчетава машинно образование със „ арбитър “, вграден в самия модел. Когато консуматор зададе въпрос, съдията съпоставя оферти отговор с вътрешните правила на модела и с това по какъв начин би трябвало да наподобява един добър отговор. Ако двете съответстват – моделът получава позитивна противоположна връзка. Ако не – значи има още какво да учи.
С други думи, по този метод AI моделът се тренира самичък, по свои лични критерии.
Според DeepSeek този метод разрешава на моделите им да се оправят по-добре от съперниците, в това число и от GPT-4 на OpenAI, Gemini на Гугъл и Llama на Meta. И още нещо – компанията дава обещание, че ще направи тези принадлежности с отворен код, което значи свободен достъп за всички.
Засега обаче няма оповестена точна дата по кое време това ще се случи.
Новината за революционната техника идва в миг, когато слуховете за нов модел – R2 – набират инерция в китайските медии. Все още няма публични данни от страна на DeepSeek по тематиката, само че упованията са много огромни.
Компанията, която провокира вълна от звук още през януари със своя AI модел R1 – евтина, само че впечатляващо добра опция на ChatGPT – в този момент показва нова техника, която има капацитета да промени пазара за изкуствен интелект.
Тя носи името Self-Principled Critique Tuning (SPCT) и разрешава на моделите не просто да учат, а да си дават самокритика, като усъвършенстват отговорите си в действително време.
Как работи? Вместо
да разчитат на по-големи и по-ресурсни модели, от DeepSeek упражняват езиковия модел да развива свои лични правила, по които да преценя дали един отговор е първокласен. Така AI се учи по какъв начин да се „ самокритикува “ – изцяло самостоятелно.
Системата, наречена DeepSeek-GRM (Generative Reward Modeling), съчетава машинно образование със „ арбитър “, вграден в самия модел. Когато консуматор зададе въпрос, съдията съпоставя оферти отговор с вътрешните правила на модела и с това по какъв начин би трябвало да наподобява един добър отговор. Ако двете съответстват – моделът получава позитивна противоположна връзка. Ако не – значи има още какво да учи.
С други думи, по този метод AI моделът се тренира самичък, по свои лични критерии.
Според DeepSeek този метод разрешава на моделите им да се оправят по-добре от съперниците, в това число и от GPT-4 на OpenAI, Gemini на Гугъл и Llama на Meta. И още нещо – компанията дава обещание, че ще направи тези принадлежности с отворен код, което значи свободен достъп за всички.
Засега обаче няма оповестена точна дата по кое време това ще се случи.
Новината за революционната техника идва в миг, когато слуховете за нов модел – R2 – набират инерция в китайските медии. Все още няма публични данни от страна на DeepSeek по тематиката, само че упованията са много огромни.
Източник: profit.bg
КОМЕНТАРИ




