OpenAI твърди, че най-новият ѝ модел на изкуствен интелект с

...
OpenAI твърди, че най-новият ѝ модел на изкуствен интелект с
Коментари Харесай

OpenAI заплашва да банне потребители, които питат новия ИИ модел как разсъждава

OpenAI твърди, че най-новият ѝ модел на изкуствен интелект с кодово име „ Strawberry “, оповестен под името o1-preview, е кадърен да „ разсъждава “. Въпреки това, компанията явно поставя старания да резервира метода, по който работи този умствен развой, надалеч от обществения достъп.

Според Ars Technica, OpenAI заплашва с блокиране на консуматори, които се пробват да накарат езиковия модел да разкрие по какъв начин мисли. Това е в внезапен контрастност с първичната визия на компанията за транспарантен и наличен изкуствен интелект с отворен код.

Потребители оповестяват в обществените медии, че са получили имейли от OpenAI, в които са предизвестени за опити да заобиколят защитните механизми на ChatGPT. 

Допълнителни нарушавания на тази политика могат да доведат до загуба на достъп до „ GPT-4o with Reasoning “.

Гласят предизвестията.

Иронията тук е, че забележителна част от рекламата към Strawberry беше съсредоточена върху неговата дарба да има „ верига от мисли “. Разсъждения малко по малко, които изкуственият разсъдък може да формулира, с цел да изясни своите отговори. 

Мира Мурати, основен софтуерен шеф на OpenAI, назова това „ нова парадигма “ за технологията.

Съобщенията се разграничават във връзка с това какво провокира нарушаванията. 

Някои споделят, че потреблението на термина „ reasoning trace “ (проследяване на разсъждението) е провокирало проблеми, до момента в който при други даже споменаването на думата „ размишление “ е било задоволително за предизвестие от системата. Макар към момента да е допустимо да се види резюме на мисловния развой на Strawberry, то е генерирано от втори модел на изкуствен интелект и е доста размито.

В обява в блога си OpenAI изяснява, че крие детайлите на мисловния развой, с цел да предотврати потребността от пречистване на неуместно наличие, което моделът може да изкаже, до момента в който „ мисли на глас “. 

Освен това, компанията признава, че това решение ѝ дава „ конкурентно преимущество “, като не разрешава на противници да употребяват нейния прогрес.

Изследователят на ИИ Саймън Уилисън обаче подлага на критика тази политика в блога си, като споделя: 

Не съм удовлетворен от това решение. Прозрачността е всичко за мен. Възможността да изпратя комплицирана поръчка, само че да не мога да видя по какъв начин тя е обработена, е огромна крачка обратно.

Тези опасения измежду откривателите на ИИ не са без съображение

Проблемът не е единствено в съответни пропуски или неточности, а в централизирания надзор върху технологията и сигурността ѝ. Когато единствено една компания, в тази ситуация OpenAI, държи ключа към това по какъв начин и за какво даден изкуствен интелект действа и взима решения, пораждат съществени етични и на практика въпроси. Някои специалисти предизвестяват, че неналичието на бистрота може да разреши на OpenAI да приоритизира бизнес ползите си пред публичната сигурност. 

Без самостоятелен надзор и достъп до метода, по който ИИ мисли, обществото може да остане уязвимо пред непредсказуеми опасности.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР