Новосъздаден стартъп за изкуствен интелект си поставя амбициозната цел да

...
Новосъздаден стартъп за изкуствен интелект си поставя амбициозната цел да
Коментари Харесай

Когато изкуственият интелект отговаря различно на един и същи въпрос...

Новосъздаден стартъп за изкуствен интелект си слага амбициозната цел да образова AI моделите по този начин, че да не отговорят по друг метод на един и същи въпрос, заложен от индивида.

Мира Мурати, някогашният основен механически шеф на OpenAI, основа неотдавна компанията Thinking Machines Lab, която за малко време притегли 2 милиарда $ от вложители, без да разгласи нито един артикул, написа

Миналата сряда стартъпът най-сетне разкри един от своите планове: става въпрос за модел на изкуствен интелект, който може да възпроизвежда лични отговори. Оказва се обаче, че това не е толкоз елементарно, отбелязва TechCrunch.

Корпоративният блог на Thinking Machines Lab разгласява публикация, озаглавена „ Преодоляване на неустойчивостта в отговорите на огромни езикови модели ”. В нея Хорас Хе, откривател в компанията, се пробва да разкрие коренната причина за случайността в отговорите на моделите с изкуствен интелект.

Ако да вземем за пример, зададете еднакъв въпрос на ChatGPT няколко пъти, чатботът постоянно ще дава отговор по друг метод. Общността на изкуствения разсъдък е приела тази характерност за даденост и актуалните модели се смятат за недетерминистични системи. Но Thinking Machines Lab има вяра, че казусът е разгадаем.

Хорас счита, че главната причина за случайността в работата на AI моделите се крие в механизма на взаимоотношение сред графичните ядра – и по-точно в логаритмите, работещи на Nvidia чипове – по време на процеса на извод, т.е. на изхода на AI системата.

Ако осигурим деликатен надзор върху този механизъм, можем да повишим равнището на сигурност в работата на моделите, уверен е Хорас. В резултат на това надеждността на AI отговорите за елементарните консуматори, бизнес организациите и учените ще се усили.

След като реализираме възпроизводимост, можем също да подобрим качеството на образованието с укрепване – развой, при който AI се възнаграждава за верни отговори.

Ако всички отговори имат дребни разлики, тогава в изходните данни се появява информативен звук. Когато отговорите на AI моделите са по-последователни, тогава процесът на образование с укрепване става „ по-плавен ”, разсъждава ученият.

По-рано Thinking Machines Lab съобщи пред вложителите, че има намерение да предложи на бизнеса AI модели, настроени благодарение на образование с укрепване. Мира Мурати даде обещание да показа първия артикул на компанията през идващите месеци, отбелязвайки, че той ще бъде „ потребен за откриватели и започващи компании, разработващи свои лични модели ”.

Все още не е ясно какъв е този артикул и дали методите за възстановяване на възпроизводимостта на резултатите, посочени в новата публикация от компанията, ще бъдат употребявани при създаване на AI модела.

Thinking Machines Lab разгласи също проекти за постоянно издание на публикации в блогове, които съдържат програмен код и друга информация, за своите проучвания, с цел да „ бъде от изгода за обществото, както и да усъвършенства личната ни просвета на научно развиване ”.

По време на основаването си, компанията се ангажира с отворена политика във връзка с личните си проучвания, само че с разрастването ѝ тя става все по-затворена.

Последната блог обява дава рядка опция да надникнем зад кулисите на един от най-секретните стартъпи в промишлеността – точната посока на развиване на технологията към момента не е оповестена, само че има учредения да се счита, че Thinking Machines Lab се е заела с решаването на един от най-важните проблеми в региона на изкуствения разсъдък.

Истинският тест за компанията ще бъде дали може да реши сходни проблеми и да сътвори артикули, основани на тези проучвания, които да оправдаят оценката ѝ от 12 милиарда $.
Източник: novinite.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР