Инженери на OpenAI: „5-10 души вече са достатъчни за обучението на GPT-4“
Според инженерите на OpenAI, сега за преобучаването на моделите GPT-4 от нулата са нужни единствено 5 до 10 експерта.
Струва си да се означи, че стотици хора участваха в основаването на пуснатия през март 2023 година модел и съвсем всички запаси на OpenAI бяха свързани. В отговор на въпрос от основния изпълнителен шеф на компанията Сам Алтман, инженерите споделиха, че сега не са нужни повече от 5-10 души, с цел да се образова GPT-4 от нулата.
Според Алекс Пайно, откривател в OpenAI, който управлява предварителния развой на машинно образование за най-мощния AI-модел на компанията досега GPT-4.5, за повторното образование на моделите GPT-4o и GPT-4 се употребява съвсем същия материал като образованието на GPT-4.5. Даниел Селсам, откривател в OpenAI, който работи върху успеваемостта на данните и логаритмите, е склонен, че възобновяване на GPT-4 сега ще бъде доста по-лесно.
Според Сам Алтман, пуснатият през февруари нов модел GPT-4.5 е първият, който основава усещане за другарство с деликатен човек. Както отбелязва Пайно, GPT-4.5 е планиран да бъде 10 пъти по-интелигентен от GPT-4. В същото време Алтман споделя, че OpenAI към този момент не е стеснен във връзка с изчислителната мощ за образованието на AI — нещо, което светът към момента не е осъзнал изцяло.
Големите софтуерни компании влагат милиарди в инфраструктурата за изкуствен интелект. Microsoft, Amazon, Гугъл и Meta се чака да похарчат общо 320 милиарда $ финансови разноски тази година, с цел да разширят опциите на своя AI.
През март OpenAI разгласи, че е завършил най-големия кръг за частно софтуерно финансиране в историята, в това число и $30 милиарда от SoftBank и $10 милиарда от други вложители, което дава на компанията пазарна капитализация от $300 милиарда. Компанията споделя в изказване, че новият капитал ще помогне на OpenAI в допълнение да разшири изчислителната си мощност.
Алтман отбелязва, че OpenAI сега се концентрира върху успеваемостта на данните, върху които се образова AI. GPT моделите са доста ефикасни при обработката на информация, само че има ограничаване за това какъв брой надълбоко могат да схванат данните.
Той изясни, че с увеличението на изчислителната мощ размерът на информацията стартира да нараства по-бавно. За да се реши този проблем, са нужни алгоритмични нововъведения, които ще извлекат повече стойност от същото количество информация.




