Моделите за разсъждения на Openai са „халюциниращи“ и създателите нямат представа защо: Доклад
Наскоро стартираните модели O3 и O4-Mini AI са предразположени към халюцинации, по-често от предходните модели за разсъждения на компанията, твърди отчет в. Създателите на Chatgpt стартираха моделите в сряда (16 април), които са предопределени да създадат пауза и да работят посредством въпроси, преди да отговорят.
Въпреки това, съгласно вътрешните проби на Openai, двата нови модела халюцинират или сформират нещата доста по-често от даже моделите, които не са разсъждаващи, като GPT-4O. The company does not have an idea why this is happening.
In a technical report, OpenAI said " more research is needed " to understand why hallucinations are getting worse as it scales up reasoning models.
" Our hypothesis is that the kind of reinforcement learning used for o-series models may amplify issues that are usually mitigated (but not fully erased) by standard post-training pipelines, " a former OpenAI employee was quoted as Казвайки посредством обявата.
Експертите настояват, че м...
Прочетете целия текст »




