Миналата година OpenAI нае 50 учени и експерти, за да

...
Миналата година OpenAI нае 50 учени и експерти, за да
Коментари Харесай

OpenAI нае учени да тестват рисковете и ползите от GPT-4 – невронната мрежа създаде ново нервнопаралитично вещество

Миналата година OpenAI нае 50 учени и специалисти, с цел да тестват рисковете и изгодите от модела GPT-4. Като част от тестванията, професорът по химическо инженерство в университета в Рочестър, Андрю Уайт, съумя да сътвори ново нервнопаралитично вещество, употребявайки невронна мрежа.

Група откриватели, известни като ‘червеният екип’, тестваха GPT-4 в продължение на шест месеца, пробвайки се да открият уязвимостите му.

Уайт споделя пред Financial Times, че е употребявал GPT-4, с цел да накара невронната мрежа да предложи съединяване, което може да се употребява като химическо оръжие. Той употребява приставки, които уголемяват опциите на модела с нови източници на информация, като научни публикации и указатели на производители на химикали. След това чатботът даже е намерил място за производството на нервнопаралитичния сътрудник.

Моделът дава на всеки инструмент опция за осъществяване на по-бързи и по-точни химически разбори, само че това носи забележителен риск за хората, споделя Уайт. Такъв резултат е разрешил на OpenAI да подсигурява, че сходна информация няма да се появява след стартирането на технологията през март тази година.

По време на тестването, ‘червеният отбор’ е трябвало да зададе на GPT-4 водещи или рискови въпроси, с цел да тества инструмента, който дава подробни отговори на запитванията на хората. Целта на OpenAI е била да се отстраняват проблемите с модела като токсичност, предубеждения и езикова дискриминация.

Групата от специалисти е тествала технологията за неистини, вербална операция и рисково научно разузнаване. Те също по този начин са изследвали и капацитета на GPT-4 за подкрепяне и подбудителство към плагиатство, противозаконни действия, в това число финансови закононарушения и хакерски атаки. Експертите също по този начин са ревизирали вероятността решението да заплаши националната сигурност и връзките по време на военни дейности.

„ Червеният тим “ е бил формиран от учени, преподаватели, юристи, анализатори на риска и откриватели по сигурността основно от Европа и Съединените щати. OpenAI употребява резултатите от своите проучвания, с цел да уточни работата на GPT-4 преди необятното му разпространяване. Експертите са прекарали от 10 до 40 часа в тестване на модела в продължение на няколко месеца. Според участниците в инспекцията, за тази работа им е плащано почти по 100 $ на час.

Днес GPT-4 не се учи и няма памет, само че с достъп до интернет решението на OpenAI ще се трансформира в мощна система, споделя Хосе Ернандес-Орало, член на аления екип и професор в Института за проучване на изкуствения разсъдък във Валенсия.

Изследователите споделят също, че GPT-4 дава подробна информация за осъществяване на хакерски атаки против военни системи. Те обаче признават, че в хода на тестването, отговорите на чатбота са станали доста по-безопасни.

OpenAI започва опцията за прибавяне на приставки към ChatGPT, което специалистът по сигурността на AI от „ аления екип “ Дан Хендрикс назова „ риск за света “. Според него, чатботът с приставки ще може да разгласява персонална информация в интернет, да обезпечава достъп до банкови сметки и да се обажда на полицията. Хендрикс настоя за по-надеждни оценки на сигурността.

По-рано, чатботът ChaosGPT (базиран на решението за изкуствен интелект с отворен код Auto-GPT, с поддръжка на GPT-4 и API на OpenAI) реши да получи надзор над човечеството посредством операция, с цел да усили силата и ресурсите, които към момента му липсват. Решението назова обществените мрежи идеални платформи за манипулиране на хора, където чатботът ще набира своите почитатели. Експертите считат, че с цел да реализиране задачите си, ChaosGPT има още доста да се учи.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР