Наскоро стартираните модели O3 и O4-Mini AI са предразположени към

...
Наскоро стартираните модели O3 и O4-Mini AI са предразположени към
Коментари Харесай

Моделите за разсъждения на Openai са „халюциниращи“ и създателите нямат представа защо: Доклад

Наскоро стартираните модели O3 и O4-Mini AI са предразположени към халюцинации, по-често от предходните модели за разсъждения на компанията, твърди отчет в. Създателите на Chatgpt стартираха моделите в сряда (16 април), които са предопределени да създадат пауза и да работят посредством въпроси, преди да отговорят.

Въпреки това, съгласно вътрешните проби на Openai, двата нови модела халюцинират или сформират нещата доста по-често от даже моделите, които не са разсъждаващи, като GPT-4O. The company does not have an idea why this is happening.

In a technical report, OpenAI said " more research is needed " to understand why hallucinations are getting worse as it scales up reasoning models.

" Our hypothesis is that the kind of reinforcement learning used for o-series models may amplify issues that are usually mitigated (but not fully erased) by standard post-training pipelines, " a former OpenAI employee was quoted as Казвайки посредством обявата.

Експертите настояват, че м...

Прочетете целия текст »

Източник: worldnews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР