Изкуственият интелект се насочва към компактни модели
Компаниите избират тях поради по-ниските разноски и висока успеваемост
Разработчиците на изкуствен интелект от ден на ден се обръщат към компактни езикови модели, които са по-евтини и рентабилни. Технологичните колоси и стартъпите минават към по-малки и по-ефективни модели на изкуствен интелект, с цел да понижат разноските и да усилят продуктивността. За разлика от огромните езикови модели като GPT-4, компактните модели могат да се образоват на по-малко данни и да се специализират в решаването на характерни проблеми.
Microsoft, Гугъл, Apple и стартъпите Mistral, Anthropic и Cohere все по-често се обръщат към дребни и междинни езикови модели на ИИ. За разлика от огромните модели (LLM) като GPT-4 на OpenAI, които употребяват повече от един трилион параметри и чието създаване коства над 100 млн. щ. $, компактните модели се образоват върху по-тесни набори от данни и могат да костват по-малко от 10 млн. щ. $, като в същото време употребяват по-малко от 10 милиарда параметри.
Microsoft, един от водачите в региона на изкуствения разсъдък, показа семейство дребни модели, наречени Phi. Според основния изпълнителен шеф Сатя Надела те са 100 пъти по-малки от безплатната версия на ChatGPT, само че се оправят с доста задания съвсем толкоз дейно. Юсуф Мехди, основен търговски шеф на Microsoft, съобщи, че компанията бързо е осъзнала, че ръководството на огромни модели на ИИ е по-скъпо, в сравнение с се е считало в началото, което е предиздвикало Microsoft да потърси по-рентабилни решения.
Други софтуерни колоси също не останаха настрани. Гугъл, Apple, както и фирмите Mistral, Anthropic и Cohere пуснаха свои версии на дребни и междинни модели. Apple възнамерява да употребява такива модели за локално осъществяване на изкуствен интелект, непосредствено на смарт телефоните, което би трябвало да усъвършенства скоростта и сигурността. В същото време потреблението на запаси в смарт телефоните ще бъде минимално. Експертите означават, че за доста задания, като да вземем за пример обобщаване на документи или основаване на изображения, огромните модели могат да се окажат непотребни. Иля Полосухин, един от създателите на основополагащия документ на Гугъл за изкуствения разсъдък от 2017 година, нагледно съпостави потреблението на огромни модели за елементарни задания с пътешестване до магазина за хранителни артикули с танк. " Изчисляването на 2 + 2 не би трябвало да изисква квадрилиони интервенции ", акцентира той.
Компаниите и потребителите също търсят способи за понижаване на разноските за употреба на технологиите за генеративен изкуствен интелект. Според Йоав Шохам, съосновател на основаната в Тел Авив компания за изкуствен интелект AI21 Labs, дребните модели могат да отговорят на въпроси, в случай че се преведе всичко в пари, единствено за една шеста от цената на огромните езикови модели.
Интересно е, че основно преимущество на дребните модели е, че те могат да бъдат точно настройвани за съответни задания и набори от данни. Това им разрешава да работят дейно в профилирани области на по-ниска цена, да вземем за пример единствено в правната промишленост.
Експертите обаче означават, че фирмите няма да се откажат изцяло от LLM. Например Apple разгласи консолидираното на ChatGPT в Siri за комплицирани задания, а Microsoft възнамерява да употребява най-новия модел на OpenAI в новата версия на Windows. А компании като ирландската Experian и американската Salesforce към този момент са минали към потребление на компактни модели на ИИ за чатботове и са открили, че те обезпечават същата продуктивност като огромните модели, само че на доста по-ниска цена и с по-ниска инертност на обработката.
Преминаването към дребни модели идва на фона на забавянето на напредъка на огромните обществено налични модели на ИИ. Експертите изясняват това с неналичието на висококачествени нови данни за образование и като цяло показват нов и значим стадий в развиването на промишлеността.
Разработчиците на изкуствен интелект от ден на ден се обръщат към компактни езикови модели, които са по-евтини и рентабилни. Технологичните колоси и стартъпите минават към по-малки и по-ефективни модели на изкуствен интелект, с цел да понижат разноските и да усилят продуктивността. За разлика от огромните езикови модели като GPT-4, компактните модели могат да се образоват на по-малко данни и да се специализират в решаването на характерни проблеми.
Microsoft, Гугъл, Apple и стартъпите Mistral, Anthropic и Cohere все по-често се обръщат към дребни и междинни езикови модели на ИИ. За разлика от огромните модели (LLM) като GPT-4 на OpenAI, които употребяват повече от един трилион параметри и чието създаване коства над 100 млн. щ. $, компактните модели се образоват върху по-тесни набори от данни и могат да костват по-малко от 10 млн. щ. $, като в същото време употребяват по-малко от 10 милиарда параметри.
Microsoft, един от водачите в региона на изкуствения разсъдък, показа семейство дребни модели, наречени Phi. Според основния изпълнителен шеф Сатя Надела те са 100 пъти по-малки от безплатната версия на ChatGPT, само че се оправят с доста задания съвсем толкоз дейно. Юсуф Мехди, основен търговски шеф на Microsoft, съобщи, че компанията бързо е осъзнала, че ръководството на огромни модели на ИИ е по-скъпо, в сравнение с се е считало в началото, което е предиздвикало Microsoft да потърси по-рентабилни решения.
Други софтуерни колоси също не останаха настрани. Гугъл, Apple, както и фирмите Mistral, Anthropic и Cohere пуснаха свои версии на дребни и междинни модели. Apple възнамерява да употребява такива модели за локално осъществяване на изкуствен интелект, непосредствено на смарт телефоните, което би трябвало да усъвършенства скоростта и сигурността. В същото време потреблението на запаси в смарт телефоните ще бъде минимално. Експертите означават, че за доста задания, като да вземем за пример обобщаване на документи или основаване на изображения, огромните модели могат да се окажат непотребни. Иля Полосухин, един от създателите на основополагащия документ на Гугъл за изкуствения разсъдък от 2017 година, нагледно съпостави потреблението на огромни модели за елементарни задания с пътешестване до магазина за хранителни артикули с танк. " Изчисляването на 2 + 2 не би трябвало да изисква квадрилиони интервенции ", акцентира той.
Компаниите и потребителите също търсят способи за понижаване на разноските за употреба на технологиите за генеративен изкуствен интелект. Според Йоав Шохам, съосновател на основаната в Тел Авив компания за изкуствен интелект AI21 Labs, дребните модели могат да отговорят на въпроси, в случай че се преведе всичко в пари, единствено за една шеста от цената на огромните езикови модели.
Интересно е, че основно преимущество на дребните модели е, че те могат да бъдат точно настройвани за съответни задания и набори от данни. Това им разрешава да работят дейно в профилирани области на по-ниска цена, да вземем за пример единствено в правната промишленост.
Експертите обаче означават, че фирмите няма да се откажат изцяло от LLM. Например Apple разгласи консолидираното на ChatGPT в Siri за комплицирани задания, а Microsoft възнамерява да употребява най-новия модел на OpenAI в новата версия на Windows. А компании като ирландската Experian и американската Salesforce към този момент са минали към потребление на компактни модели на ИИ за чатботове и са открили, че те обезпечават същата продуктивност като огромните модели, само че на доста по-ниска цена и с по-ниска инертност на обработката.
Преминаването към дребни модели идва на фона на забавянето на напредъка на огромните обществено налични модели на ИИ. Експертите изясняват това с неналичието на висококачествени нови данни за образование и като цяло показват нов и значим стадий в развиването на промишлеността.
Източник: dnesplus.bg
КОМЕНТАРИ




