DeepSeek представи нова AI методология, която надминава съществуващите модели
Китайският стартъп в региона на изкуствения разсъдък DeepSeek показа нов способ за възстановяване на способността за размишление на огромните езикови модели (LLMs), като съгласно известията той надминава съществуващите подходи.
Стартъпът създаде двоен метод, който комбинира генеративно моделиране на награди (GRM) и независимо сериозно образование, в съдействие с откриватели от Университета Синхуа.
Този двоен способ е основан за да разреши на LLM моделите да дават по-точни и по-бързи отговори на общи въпроси, съгласно оповестената в петък научна публикация.
Изследователите обявиха, че основаните модели DeepSeek-GRM надминават съществуващите техники, постигайки „ конкурентни резултати “ по отношение на одобрени обществени модели. Моделирането на награди е развой, употребен за вземане предвид на държанието на езиковите модели с човешките желания.
DeepSeek възнамерява да направи своите GRM модели отворен код, споделиха от компанията, въпреки че не дадоха съответна дата.
Статията, оповестена в онлайн научното вместилище arXiv, излиза на фона на възходящ интерес към бъдещите разработки на компанията, откакто световно внимание привлякоха главният ѝ модел V3 и моделът за размишление R1.
Четете още: DeepSeek актуализира AI модела си V3 и провокира OpenAI.




