OpenAI предизвика генеративния AI-бум миналата година, когато пусна ChatGPT –

...
OpenAI предизвика генеративния AI-бум миналата година, когато пусна ChatGPT –
Коментари Харесай

OpenAI разбра как да се справи с лъжите на ChatGPT

OpenAI провокира генеративния AI-бум предходната година, когато пусна ChatGPT – чатбот, който доближи 100 милиона месечни консуматори за два месеца, поставяйки връх за най-бързо разрастващо се приложение. В момента казусът с дезинформирането на потребителите с изкуствен интелект стана изострен и компанията предложи лично решение за битка с това събитие. Някои самостоятелни специалисти показаха песимизъм по отношение на успеваемостта на оферти способ.

Дезинформация или „ халюцинации “ на ИИ пораждат, когато моделите като ChatGPT или Гугъл Bard изцяло изфабрикуват информация, като се държат по този начин, като че ли излагат обстоятелства. „ Дори най-напредналите AI-модели са склонни да дават погрешна информация. Те показват податливост да измислят обстоятелства в моменти на неустановеност “ – пишат откривателите на OpenAI в своя доклад. – “Тези халюцинации предизвикват доста проблеми в области, които изискват многоетапно размишление, защото една логическа неточност е задоволителна, с цел да провали доста по-мащабно решение. “

Новата анти-фантастична тактика на OpenAI е да образова AI-моделите да се възнаграждават за всяка една вярна стъпка на размишление, когато стигнат до отговор, вместо да се възнаграждават единствено при верен финален извод. Изследователите нарекоха този метод „ надзор на процеса “. Според тях, това може да докара до основаването на по-логичен AI, защото тази тактика предизвиква модела да следва „ веригата на мисълта “, която е сходна на човешката.

„ Откриването и смекчаването на логическите неточности на модела или халюцинациите е сериозна стъпка към основаването на координиран AGI [изкуствен разсъдък с общо предназначение] “ – сподели Карл Кобе (Karl Cobbe), който е математик в OpenAI, отбелязвайки, че макар че компанията не е изобретила метода, основан на наблюдаване на процеса, той ще помогне за по-нататъшното напредване. Според Кобе, OpenAI е дал достъп до съпътстващ набор от данни на 800 000 тага, които е употребявал за образованието на специфичния модел, упоменат в изследователската работа.

Бен Уинтърс (Ben Winters), старши консултант на Информационния център по електронна конфиденциалност и началник на плана за изкуствен интелект и човешки права, изрази своите запаси по отношение на изследването, като сподели, че би желал да изучи цялостния набор от данни и съпътстващите ги образци. „ Просто не мисля, че изследването единствено по себе си прави доста за намаляване на терзанията по отношение на дезинформацията и подвеждащите резултати, когато AI фактически се употребява в действителния живот “ – сподели Уинтърс.

Управляващият шеф на Института AI Now Сара Майерс Уест (Sarah Myers West) сподели, че OpenAI не дава основни детайлности по отношение на употребяваните за образованието и тестването на GPT-4 данни. „ Следователно към момента има голяма липса на бистрота, която попречва всяко свястно изпитание за обезпечаване на отчетност на ИИ, даже когато тези системи към този момент засягат директно хората “ – споделя тя.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР