Когато изкуственият интелект отговаря различно на един и същи въпрос...
Новосъздаден стартъп за изкуствен интелект си слага амбициозната цел да образова AI моделите по този начин, че да не отговорят по друг метод на един и същи въпрос, заложен от индивида.
Мира Мурати, някогашният основен механически шеф на OpenAI, основа неотдавна компанията Thinking Machines Lab, която за малко време притегли 2 милиарда $ от вложители, без да разгласи нито един артикул, написа
Миналата сряда стартъпът най-сетне разкри един от своите планове: става въпрос за модел на изкуствен интелект, който може да възпроизвежда лични отговори. Оказва се обаче, че това не е толкоз елементарно, отбелязва TechCrunch.
Корпоративният блог на Thinking Machines Lab разгласява публикация, озаглавена „ Преодоляване на неустойчивостта в отговорите на огромни езикови модели ”. В нея Хорас Хе, откривател в компанията, се пробва да разкрие коренната причина за случайността в отговорите на моделите с изкуствен интелект.
Ако да вземем за пример, зададете еднакъв въпрос на ChatGPT няколко пъти, чатботът постоянно ще дава отговор по друг метод. Общността на изкуствения разсъдък е приела тази характерност за даденост и актуалните модели се смятат за недетерминистични системи. Но Thinking Machines Lab има вяра, че казусът е разгадаем.
Хорас счита, че главната причина за случайността в работата на AI моделите се крие в механизма на взаимоотношение сред графичните ядра – и по-точно в логаритмите, работещи на Nvidia чипове – по време на процеса на извод, т.е. на изхода на AI системата.
Ако осигурим деликатен надзор върху този механизъм, можем да повишим равнището на сигурност в работата на моделите, уверен е Хорас. В резултат на това надеждността на AI отговорите за елементарните консуматори, бизнес организациите и учените ще се усили.
След като реализираме възпроизводимост, можем също да подобрим качеството на образованието с укрепване – развой, при който AI се възнаграждава за верни отговори.
Ако всички отговори имат дребни разлики, тогава в изходните данни се появява информативен звук. Когато отговорите на AI моделите са по-последователни, тогава процесът на образование с укрепване става „ по-плавен ”, разсъждава ученият.
По-рано Thinking Machines Lab съобщи пред вложителите, че има намерение да предложи на бизнеса AI модели, настроени благодарение на образование с укрепване. Мира Мурати даде обещание да показа първия артикул на компанията през идващите месеци, отбелязвайки, че той ще бъде „ потребен за откриватели и започващи компании, разработващи свои лични модели ”.
Все още не е ясно какъв е този артикул и дали методите за възстановяване на възпроизводимостта на резултатите, посочени в новата публикация от компанията, ще бъдат употребявани при създаване на AI модела.
Thinking Machines Lab разгласи също проекти за постоянно издание на публикации в блогове, които съдържат програмен код и друга информация, за своите проучвания, с цел да „ бъде от изгода за обществото, както и да усъвършенства личната ни просвета на научно развиване ”.
По време на основаването си, компанията се ангажира с отворена политика във връзка с личните си проучвания, само че с разрастването ѝ тя става все по-затворена.
Последната блог обява дава рядка опция да надникнем зад кулисите на един от най-секретните стартъпи в промишлеността – точната посока на развиване на технологията към момента не е оповестена, само че има учредения да се счита, че Thinking Machines Lab се е заела с решаването на един от най-важните проблеми в региона на изкуствения разсъдък.
Истинският тест за компанията ще бъде дали може да реши сходни проблеми и да сътвори артикули, основани на тези проучвания, които да оправдаят оценката ѝ от 12 милиарда $.
Мира Мурати, някогашният основен механически шеф на OpenAI, основа неотдавна компанията Thinking Machines Lab, която за малко време притегли 2 милиарда $ от вложители, без да разгласи нито един артикул, написа
Миналата сряда стартъпът най-сетне разкри един от своите планове: става въпрос за модел на изкуствен интелект, който може да възпроизвежда лични отговори. Оказва се обаче, че това не е толкоз елементарно, отбелязва TechCrunch.
Корпоративният блог на Thinking Machines Lab разгласява публикация, озаглавена „ Преодоляване на неустойчивостта в отговорите на огромни езикови модели ”. В нея Хорас Хе, откривател в компанията, се пробва да разкрие коренната причина за случайността в отговорите на моделите с изкуствен интелект.
Ако да вземем за пример, зададете еднакъв въпрос на ChatGPT няколко пъти, чатботът постоянно ще дава отговор по друг метод. Общността на изкуствения разсъдък е приела тази характерност за даденост и актуалните модели се смятат за недетерминистични системи. Но Thinking Machines Lab има вяра, че казусът е разгадаем.
Хорас счита, че главната причина за случайността в работата на AI моделите се крие в механизма на взаимоотношение сред графичните ядра – и по-точно в логаритмите, работещи на Nvidia чипове – по време на процеса на извод, т.е. на изхода на AI системата.
Ако осигурим деликатен надзор върху този механизъм, можем да повишим равнището на сигурност в работата на моделите, уверен е Хорас. В резултат на това надеждността на AI отговорите за елементарните консуматори, бизнес организациите и учените ще се усили.
След като реализираме възпроизводимост, можем също да подобрим качеството на образованието с укрепване – развой, при който AI се възнаграждава за верни отговори.
Ако всички отговори имат дребни разлики, тогава в изходните данни се появява информативен звук. Когато отговорите на AI моделите са по-последователни, тогава процесът на образование с укрепване става „ по-плавен ”, разсъждава ученият.
По-рано Thinking Machines Lab съобщи пред вложителите, че има намерение да предложи на бизнеса AI модели, настроени благодарение на образование с укрепване. Мира Мурати даде обещание да показа първия артикул на компанията през идващите месеци, отбелязвайки, че той ще бъде „ потребен за откриватели и започващи компании, разработващи свои лични модели ”.
Все още не е ясно какъв е този артикул и дали методите за възстановяване на възпроизводимостта на резултатите, посочени в новата публикация от компанията, ще бъдат употребявани при създаване на AI модела.
Thinking Machines Lab разгласи също проекти за постоянно издание на публикации в блогове, които съдържат програмен код и друга информация, за своите проучвания, с цел да „ бъде от изгода за обществото, както и да усъвършенства личната ни просвета на научно развиване ”.
По време на основаването си, компанията се ангажира с отворена политика във връзка с личните си проучвания, само че с разрастването ѝ тя става все по-затворена.
Последната блог обява дава рядка опция да надникнем зад кулисите на един от най-секретните стартъпи в промишлеността – точната посока на развиване на технологията към момента не е оповестена, само че има учредения да се счита, че Thinking Machines Lab се е заела с решаването на един от най-важните проблеми в региона на изкуствения разсъдък.
Истинският тест за компанията ще бъде дали може да реши сходни проблеми и да сътвори артикули, основани на тези проучвания, които да оправдаят оценката ѝ от 12 милиарда $.
Източник: novinite.bg
КОМЕНТАРИ




