Qualcomm атакува AI чиповете с нов ускорителен модел
Надпреварата в полето на производителите на чипове се ускорява още повече, откакто Qualcomm разгласи, че пуска нов модел за ускорение на изкуствен интелект.
Новият AI200 ще бъде пуснат в продажба през 2026 година, а AI250 е плануван за 2027 година, като и двата ще могат да се оферират в система за цялостен сървър с водно изстудяване.
По този метод компанията става идващия съперник на Nvidia и AMD, които оферират графични процесори (GPU) в сървърни системи, които разрешават на 72 чипа да работят като един компютър.
Лабораториите за AI се нуждаят от тази изчислителна мощ, с цел да работят с най-модерните модели, отбелязва CNBC.
Чиповете за центрове за данни на Qualcomm се базират на частите за изкуствен интелект в чиповете за смарт телефони на Qualcomm, наречени Hexagon невронни процесори (NPU).
„ Първо искахме да се потвърдим в други области и откакто изградихме силата си там, беше много елементарно да преминем на по-високо равнище в центровете за данни “, разяснява Дурга Малади, общоприет управител на Qualcomm за центрове за данни и външна страна в диалог с кореспонденти предходната седмица.
Влизането на Qualcomm в света на центровете за данни бележи нова конкуренция на най-бързо растящия пазар в региона на технологиите: съоръжение за нови сървърни ферми, фокусирани върху изкуствения разсъдък.
Според оценка на McKinsey, до 2030 година ще бъдат изхарчени близо 6,7 трилиона $ финансови разноски за центрове за данни, като по-голямата част ще бъдат за системи, основани на чипове за изкуствен интелект, добавя CNBC.
Индустрията е доминирана от Nvidia, чиито графични процесори до момента са с над 90% пазарен дял, а продажбите доведоха компанията до пазарна капитализация от над 4,5 трилиона $. Нейни чипове са употребявани за образование на GPT на OpenAI, огромните езикови модели, употребявани в ChatGPT.
Но компании като OpenAI търсят други възможности и при започване на този месец стартъпът разгласи проекти да купи чипове от втория по величина производител на графични процесори, AMD, и евентуално да придобие дял. Други като Гугъл, Amazon и Microsoft, също създават свои AI ускорители за облачни услуги.
Qualcomm съобщи, че чиповете й се концентрират върху изводите или осъществяването на AI модели, а не върху образованието, което е методът, по който лаборатории като OpenAI основават нови AI благоприятни условия посредством обработка на терабайти данни.
Производителят на чипове съобщи, че системите ще костват по-малко за употреба за клиенти като доставчиците на облачни услуги и че една от тях употребява 160 киловата, което е сравнимо с високата консумация на сила от някои GPU системи на Nvidia.
Малади оповестява още, че Qualcomm ще продава AI чипове и други елементи и поотделно, изключително за клиенти като хиперскейлъри, които избират да проектират свои сървъри. Други компании за AI чипове, като Nvidia или AMD, биха могли даже да станат клиенти за някои от частите за центрове за данни на Qualcomm, като да вземем за пример централния процесор или CPU.
„ Опитахме се да се уверим, че нашите клиенти са в положение да вземат всичко или да кажат: „ Ще съчетавам “, добавя Малади.
Компанията отхвърли да разяснява цената на новите си артикули.
През май тя разгласи партньорство с Humain от Саудитска Арабия за доставка на AI чипове за изчислителни центрове в района, като Humain ще се ангажира да внедри толкоз системи, колкото могат да употребяват 200 мегавата сила.
Qualcomm съобщи още, че чиповете за изкуствен интелект имат преимущества пред други ускорители във връзка с потреблението на сила, разноските за благосъстоятелност и нов метод към метода, по който се обработва паметта. Те ще поддържат 768 гигабайта памет за AI, което е повече от предложенията на Nvidia и AMD.
Новият AI200 ще бъде пуснат в продажба през 2026 година, а AI250 е плануван за 2027 година, като и двата ще могат да се оферират в система за цялостен сървър с водно изстудяване.
По този метод компанията става идващия съперник на Nvidia и AMD, които оферират графични процесори (GPU) в сървърни системи, които разрешават на 72 чипа да работят като един компютър.
Лабораториите за AI се нуждаят от тази изчислителна мощ, с цел да работят с най-модерните модели, отбелязва CNBC.
Чиповете за центрове за данни на Qualcomm се базират на частите за изкуствен интелект в чиповете за смарт телефони на Qualcomm, наречени Hexagon невронни процесори (NPU).
„ Първо искахме да се потвърдим в други области и откакто изградихме силата си там, беше много елементарно да преминем на по-високо равнище в центровете за данни “, разяснява Дурга Малади, общоприет управител на Qualcomm за центрове за данни и външна страна в диалог с кореспонденти предходната седмица.
Влизането на Qualcomm в света на центровете за данни бележи нова конкуренция на най-бързо растящия пазар в региона на технологиите: съоръжение за нови сървърни ферми, фокусирани върху изкуствения разсъдък.
Според оценка на McKinsey, до 2030 година ще бъдат изхарчени близо 6,7 трилиона $ финансови разноски за центрове за данни, като по-голямата част ще бъдат за системи, основани на чипове за изкуствен интелект, добавя CNBC.
Индустрията е доминирана от Nvidia, чиито графични процесори до момента са с над 90% пазарен дял, а продажбите доведоха компанията до пазарна капитализация от над 4,5 трилиона $. Нейни чипове са употребявани за образование на GPT на OpenAI, огромните езикови модели, употребявани в ChatGPT.
Но компании като OpenAI търсят други възможности и при започване на този месец стартъпът разгласи проекти да купи чипове от втория по величина производител на графични процесори, AMD, и евентуално да придобие дял. Други като Гугъл, Amazon и Microsoft, също създават свои AI ускорители за облачни услуги.
Qualcomm съобщи, че чиповете й се концентрират върху изводите или осъществяването на AI модели, а не върху образованието, което е методът, по който лаборатории като OpenAI основават нови AI благоприятни условия посредством обработка на терабайти данни.
Производителят на чипове съобщи, че системите ще костват по-малко за употреба за клиенти като доставчиците на облачни услуги и че една от тях употребява 160 киловата, което е сравнимо с високата консумация на сила от някои GPU системи на Nvidia.
Малади оповестява още, че Qualcomm ще продава AI чипове и други елементи и поотделно, изключително за клиенти като хиперскейлъри, които избират да проектират свои сървъри. Други компании за AI чипове, като Nvidia или AMD, биха могли даже да станат клиенти за някои от частите за центрове за данни на Qualcomm, като да вземем за пример централния процесор или CPU.
„ Опитахме се да се уверим, че нашите клиенти са в положение да вземат всичко или да кажат: „ Ще съчетавам “, добавя Малади.
Компанията отхвърли да разяснява цената на новите си артикули.
През май тя разгласи партньорство с Humain от Саудитска Арабия за доставка на AI чипове за изчислителни центрове в района, като Humain ще се ангажира да внедри толкоз системи, колкото могат да употребяват 200 мегавата сила.
Qualcomm съобщи още, че чиповете за изкуствен интелект имат преимущества пред други ускорители във връзка с потреблението на сила, разноските за благосъстоятелност и нов метод към метода, по който се обработва паметта. Те ще поддържат 768 гигабайта памет за AI, което е повече от предложенията на Nvidia и AMD.
Източник: profit.bg
КОМЕНТАРИ




