Високото ниво на популярност на AI-сървърите стимулира търсенето на основна

...
Високото ниво на популярност на AI-сървърите стимулира търсенето на основна
Коментари Харесай

SK hynix ще обхване над половината от пазара на HBM памети през 2023 г. благодарение на ИИ-бума

Високото равнище на известност на AI-сървърите подтиква търсенето на съществена памет с висока пропускателна дарба (HBM). Според TrendForce, най-хубавите снабдители на HBM памети през 2022 година са SK hynix (50% пазарен дял), Samsung (40% пазарен дял) и Micron (10% пазарен дял). Анализаторите считат, че до края на тази година южнокорейският SK hynix ще обхване повече от половината от международния пазар на HBM.

Производството на сървърни ускорители NVIDIA H100 и AMD MI300 с HBM3 памет ще стартира през втората половина на 2023 година В момента единствено SK hynix е почнал всеобщо произвеждане на този вид памети. Анализаторите считат, че до края на годината това ще помогне на южнокорейския производител да усили пазарния си дял до 53%. Samsung и Micron се чака да пуснат HBM3 памет по-късно тази година или при започване на идната. Според прогнозите на анализаторите, делът на тези компании на пазара до края на годината ще бъде надлежно 38% и 9%.

Анализаторите на TrendForce предвиждат, че доставките на AI-сървъри ще се усилят с 15,4% през 2023 година Освен това, сред 2023 година и 2027 година се планува годишен растеж от 12,2% на доставките на AI-сървъри. Това ще бъде улеснено от стартирането на услуги, основани на генеративни невронни мрежи. Търсенето на AI-сървъри се чака да бъде подкрепено от огромни снабдители на облачни услуги като Гугъл, Amazon, Meta и Microsoft, както и от ИТ-гиганти, разработващи AI-услуги като Microsoft, Meta, Baidu, ByteDance и други.

TrendForce отбелязва, че възходящото търсене на AI-сървъри подтиква продажбите на DRAM, SSD и HBM сървърна памет. Докато сървърите с общо предопределение нормално имат 500-600 GB DRAM, AI-сървърите изискват доста повече – приблизително 1,2-1,7 TB DRAM. За SSD от корпоративен клас, DRAM и HBM към момента са предпочитани, само че до момента не е имало забележителен подтик във връзка с потенциала на SSD. От позиция на интерфейса, PCIe 5.0 е пожеланият избор, когато става въпрос за облекчаване на потребностите от високопроизводителни калкулации. Тъй като AI-сървърите стават по-сложни, търсенето на DRAM, SSD и HBM сървърна памет ще продължи да пораства.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР