Nvidia и партньори създават свръхбърза SOCAMM памет за компютрите с изкуствен интелект
Nvidia работи с водещите производители наизуст SK Hynix, Samsung и Micron за създаване на нов стандарт за памет, фокусиран върху високата продуктивност и компактния размер. Стандартът се назовава System On Chip Advanced Memory Module (SOCAMM) и към този момент е в развой на тестване.
Модулът може да бъде в основата на идващото потомство компютри, основани на изкуствен интелект (AI) на Nvidia Project Digits, оповестени на CES 2025. Както написа Tom’s Hardware, новият стандарт дава обещание да превъзхожда съществуващите Low-Power Compression Attached Memory Modules (LPCAMM) и обичайните DRAM решения с помощта на редица преимущества.
На първо място, SOCAMM ще бъде по-рентабилен от DRAM във формат SO-DIMM, защото технологията разрешава LPDDR5X паметта да се слага непосредствено върху субстрата. Второ, SOCAMM ще получи повече входно-изходни интерфейси – до 694 врата по отношение на 644 за LPCAMM и 260 за обичайна DRAM – това би трябвало доста да усили пропускателната дарба и скоростта на връзка.
Освен това, защото модулът е разглобяем, това ще улесни последващото възобновяване на хардуера. Същевременно компактният размер ще спомогне и за увеличение на общия потенциал на паметта. Техническите детайлности за SOCAMM към момента се пазят в загадка, защото стандартът се създава без съвета на JEDEC. Съобщава се, че сега Nvidia и сътрудниците споделят прототипи на модула за проби на продуктивността.

