406 милиарда параметъра: Tencent AI представи Hunyuan 2.0 – нов AI модел, който променя правилата на играта
Китайският софтуерен колос Tencent пуска на пазара езиковия модел HY2.0Think с архитектура „ микс от специалисти “ и 406 милиарда параметри. Моделът поддържа свръхдълъг подтекст до 256 хиляди лексеми и показва водещи резултати в дилемите, изискващи комплицирани логичен разсъждения: математика, програмиране, просвета. Успоредно с това Tencent интегрира модела DeepSeek V3.2 в своята екосистема.
HY2.0 е построен въз основата на архитектурата „ примес от специалисти “ (MoE): при общ размер до 406 милиарда параметъра, в даден миг вземат участие единствено 32 милиарда. Моделът поддържа свръхдълъг подтекст – до 256 хиляди токена, което му разрешава да работи с огромни документи и комплицирани вериги от разсъждения. HY 2.0 Think употребява „ тактики за санкциониране на дължината “, с цел да избегне генерирането на прекомерно отегчителен излаз. Tencent го подрежда измежду водачите в промишлеността във връзка с успеваемостта и скоростта на извеждане.
За разлика от предходната версия на Hunyuan-T1, версията HY2.0Think е подготвена въз основата на усъвършенствани данни за авансово образование и с обновени способи за подсилено образование. Това е подобрило представянето в дилемите, които изискват логичен заключения, в това число математиката, науката, програмирането и точното следване на указания.
HY2.0Think се показа чудесно в другите бенчмаркове, в това число дилемите от равнището на Международната олимпиада по математика IMO-AnswerBench и HMMT 2025, съревнование на Харвардския софтуерен институт.
Актуализираните данни от предварителното образование също по този начин разрешиха решаването на проби, които изискват задълбочени познания, като Human Last Exam (HLE) и ARC AGI.
При задания, при които е значимо да се следват тъкмо инструкциите и да се работи с дълги текстове, HY2.0Think преодолява разликата сред образованието и действителното потребление на модела, като употребява метода „ промяна на извадката по значимост “. Това спомага за стабилизиране на образованието с укрепване при обработката на дълги контексти и усъвършенства работата при комплицирани многостъпкови и многовариантни задания.
В региона на програмирането и интелигентните сътрудници Tencent е създала мащабируеми среди за тестване и синтетични набори от данни. Това е подобрило опциите на модела за писане на код, извикване на комплицирани принадлежности и осъществяване на задания на сътрудника. HY2.0 сподели високо равнище в SWE-bench Verified и Tau2-Bench на практика проби, фокусирани върху сюжети за действителни приложения.
Tencent също по този начин последователно вкарва модела DeepSeek V3.2 в своята екосистема. И двата модела бяха пуснати за първи път в личните приложения на компанията за изкуствен интелект – Yuanbao и ima. В същото време Tencent Cloud отвори достъп до тях посредством API и облачни услуги.
Пускането на HY2.0 и консолидираното на DeepSeek V3.2 отразяват тактиката на Tencent за подсилване на личната ѝ платформа за изкуствен интелект – от личните приложения до облачните услуги. DeepSeek неотдавна пусна отворен модел, който демонстрира резултати, съответстващи на равнището на златния орден на Международната олимпиада по математика, който нормално се присъжда единствено на към 8% от участниците.
(function() { const banners = [ // --- БАНЕР 1 (Facebook Messenger) --- `




