Учени направиха мислещ AI модел за... 50 долара
Дали мултимилиардните вложения в AI са пари, ориентирани в вярната посока е въпрос, който закупи още по-голяма новост, откакто проучвателен екип от Вашингтонския университет съумяха да упражняват имитиращ логичен развой модел и да реализират високи резултати с него след инвестиция от единствено 50 $, написа TechCrunch.
За задачата те са употребявали AI с отворен код и " познанията " на огромен комерсиален модел. В случая - на Гугъл.
Китайският изкуствен интелект срина американските и европейските акции
Оказва се, че умните решения не костват толкоз скъпо, колкото пазарите допускаха
, наречена s1, се базира на китайския публичен модел Qwen2.5-32B. Той е бил захранен с 1000 деликатно подбрани въпроса и метода, по който AI на Гугъл - Gemini 2.0 Flash Thinking Experimental, освен е дал отговор, само че и е " разсъждавал ".
Това е т.нар " филтрация ", посредством която по-малък модел извлича " познанията " на по-голям в избрани области. В момента американските компании упрекват китайската DeepSeek, че точно по този метод е достигнала високите резултати на своя AI.
След единствено 30 минути обработка с 16 процесора Nvidia H100, s1 е достигнал резултати в тестванията по математика и програмиране, сравними с флагманския модел OpenAI o1 и китайския му съперник DeepSeek R1, който срина пазара преди дни с появяването си.
Пука (ли) се AI балонът
Борсовият срив поради DeepSeek е индикативен - време е за нова среща с действителността
Важно конкретизиране - s1 е с 32 милиарда параметъра. Това в общия случай значи, че може да работи на по-мощна потребителска видеокарта.
Това слага и разумния въпрос какъв брой надалеч сме от обстановка, в която няма да са нужни мощни (и скъпи) центрове за данни за всекидневните AI задания.
За задачата те са употребявали AI с отворен код и " познанията " на огромен комерсиален модел. В случая - на Гугъл.
Китайският изкуствен интелект срина американските и европейските акции
Оказва се, че умните решения не костват толкоз скъпо, колкото пазарите допускаха
, наречена s1, се базира на китайския публичен модел Qwen2.5-32B. Той е бил захранен с 1000 деликатно подбрани въпроса и метода, по който AI на Гугъл - Gemini 2.0 Flash Thinking Experimental, освен е дал отговор, само че и е " разсъждавал ".
Това е т.нар " филтрация ", посредством която по-малък модел извлича " познанията " на по-голям в избрани области. В момента американските компании упрекват китайската DeepSeek, че точно по този метод е достигнала високите резултати на своя AI.
След единствено 30 минути обработка с 16 процесора Nvidia H100, s1 е достигнал резултати в тестванията по математика и програмиране, сравними с флагманския модел OpenAI o1 и китайския му съперник DeepSeek R1, който срина пазара преди дни с появяването си.
Пука (ли) се AI балонът
Борсовият срив поради DeepSeek е индикативен - време е за нова среща с действителността
Важно конкретизиране - s1 е с 32 милиарда параметъра. Това в общия случай значи, че може да работи на по-мощна потребителска видеокарта.
Това слага и разумния въпрос какъв брой надалеч сме от обстановка, в която няма да са нужни мощни (и скъпи) центрове за данни за всекидневните AI задания.
Източник: money.bg
КОМЕНТАРИ




