Американската компания OpenAI, разработчик на чатбота GPT-4, проведе проучване на

...
Американската компания OpenAI, разработчик на чатбота GPT-4, проведе проучване на
Коментари Харесай

САЩ искат да използват изкуствения интелект за разработването на биологично оръжие

Американската компания OpenAI, разработчик на чатбота GPT-4, организира изследване на успеваемостта му за основаване на биологични оръжия.

За да направи това, компанията тества продуктивността на две групи специалисти: едната употребява интернет, с цел да търси информация по тази тематика, а втората употребява интернет и специфична версия на GPT-4, която се разграничава от версията, налична за обществени при липса на спомагателни ограничения за сигурност.

И за двете групи осъществяването на задачата по дадена тематика лиши към половин час. Екипът, употребяващ ИИ, съумя да създаде, както сподели OpenAI в известие за пресата, „ по-точни резултати “. Освен това групата с GPT-4 съумя да откри повече информация по тематиката.

Публикация, отдадена на това проучване на уеб страницата на компанията, носи напълно почтеното заглавие „ Изграждане на система за ранно предизвестие за основаване на биологична опасност, подпомагана от LLM “.

Съобщава се, че опитът „ включва 100 души, в това число а) 50 специалисти по биология с докторски степени и професионален опит в мокри лаборатории и б) 50 участници на бакалавърско равнище, които са взели най-малко един академични курс по биология.

Всяка група от участници беше разпределена на инцидентен принцип или в контролна група, която имаше достъп единствено до интернет, или в група за лекуване, която в допълнение към интернет имаше достъп до GPT-4.

След това всеки участник беше помолен да извърши серия от задания, обхващащи аспекти на процеса на биологична опасност от край до край. Доколкото ни е известно, това е най-голямата човешка оценка до момента на въздействието на ИИ върху информацията за биориска.

Всъщност опит, извършен от OpenAI, сподели, че екип от 50 професори по биология и студенти по биология може да създаде ново биологично оръжие за половин час. А в случай че употребявате GPR-4 chatbot, тогава резултатите от тази, по този начин да се каже, научна работа може да са, както твърди OpenAI, малко по-добри.

В никакъв случай не можем да се съгласим с второто изказване. Може да се допусна, че същинските резултати от опита са били защитавани в загадка, а от участниците е взето съглашение за неразгласяване.

Факт е, че през април 2022 година американската компания Collaborations Pharmaceuticals по време на интернационалната конференция за сигурност Convergence, проведена от Швейцарския федерален институт за нуклеарна, биологична и химическа отбрана, показва своя AI модел, наименуван MegaSyn, не в нормалния режим на работа, което е да открие токсичността в молекулите, с цел да я избегне, а в противоположния режим.

В опита токсичните молекули бяха арестувани, а не отстранени. Моделът също беше подготвен да комбинира тези молекули в комбинации. В резултат на това единствено за шест часа бяха основани 40 хиляди типа биологични оръжия.

Преди опита откривателите образоваха MegaSyn да употребяват бази данни от лекарствени молекули, с цел да основат нещо сходно на мощния нервнопаралитичен газ VX.

Много от получените съединения са по-токсични от VX. В резултат на това създателите на проучването го класифицират и дълго разискват дали тези резултати въобще би трябвало да бъдат оповестени обществено.

Трябва ли да им благодарим, че не направиха обществено налични формулите за смъртоносни химически и биологични оръжия?

„ Като променихме потреблението на нашите модели за машинно образование, ние трансформирахме нашия безопасен генеративен модел от потребен медицински инструмент в генератор на евентуално смъртоносни молекули “, изясняват откривателите.

В изявление за The Verge, Фабио Урбина, старши академик в Collaborations Pharmaceuticals, изясни, че не е нужно доста, с цел да „ превключите ключа “ от добър ИИ към неприятен ИИ.

Имайте поради, че Collaborations Pharmaceuticals си сътрудничи с Агенцията за понижаване на отбранителната опасност (DTRA) на Пентагона, която финансира американски военни биологични лаборатории по света, в които се създават смъртоносни типове биологични оръжия.

През 2019 година компанията получи безплатна помощ от DTRA на стойност към 3 милиона $ за сякаш положителни дела. Изглежда, че тези средства са били употребявани за провеждането на опита, упоменат нагоре, по време на който са основани четири хиляди типа смъртоносни биологични оръжия благодарение на MegaSyn ИИ.

Нищо чудно, че този план беше наименуван Dr. Evil – „ Доктор Зло “.

В същото време генеративният ИИ MegaSyn, основан през 2022 година с пари от Pentagon DTRA, доста отстъпва по своите благоприятни условия на новите артикули на OpenAI и други американски ИТ компании.



Междувременно американските управляващи не се уморяват да предизвестяват човечеството за заканите, които основава изкуственият разсъдък.

„ ИИ има капацитета да донесе освен положително, само че и голяма щета: от задвижвани от ИИ хакерски атаки в мащаб, по-голям от всичко, което сме виждали преди, до основани от ИИ биологични оръжия, които могат да застрашат живота на милиони хора ", сподели вицепрезидентът на Съединени американски щати Камала Харис предишния ноември на първата интернационална среща на върха за безвредното потребление на ИИ в Лондон.

" Тези закани постоянно се назовават екзистенциални ИИ закани, тъй като те биха могли да застрашат самото битие на човечеството “, съобщи тя.

Междувременно точно в Съединените щати през 2015 година, както писахме, беше изкуствено основан злокобният ковид.

Той е създаден от интернационална група учени в Съединените щати, състояща се от 12 американски вирусолози, двама китайски специалисти от Института по вирусология в Ухан и един швейцарски академик от Цюрихския институт по биомедицина.

Групата беше ръководена от Vineet D. Menachery, помощник в редица американски университети, чието главно място на работа е Galveston National Laboratory (GNL) към Тексаския университет.

На 9 ноември 2015 година най-авторитетното здравно списание в света, Nature Medicine, разгласява публикацията " A SARS-подобен клъстер на циркулиращи прилепни коронавируси демонстрира капацитет за появяването у хора ". Първият създател на тази публикация е Vineet D. Menachery.

Ето какво се споделя в обявата: „ Използвайки системата за противоположна генетика на SARS-CoV2, ние генерирахме и проучихме вирус фантазия, който предизвиква изблик на ковид на прилеп SHC014 в приспособен към мишки гръбнак на SARS-CoV. “

Авторите обясниха, че са основали извънредно рисков вирус и обявиха, че „ появяването на SARS-CoV предвещава нова епоха в междувидовото предаване на тежки респираторни болести, като глобализацията води до бързо разпространяване в международен мащаб и големи стопански последствия “.

Тази обява е безапелационно доказателство, че химерният ковид SARS-CoV е изкуствено основан в Съединени американски щати под управлението на прочут американски вирусолог от лабораторията в Галвестън.

Изследванията на лабораторията се финансират, както написа италианският специалист Беатрис Кавали, „ от Пентагона, американските центрове за надзор и предварителна защита на болесттите (CDC), федералните организации и, несъмнено, биофармацевтичната промишленост “.

Професорът по микробиология и заместник-директор на лабораторията в Галвестън Джеймс Ледук управлява редица планове в DTRA, която финансира гореспоменатата Collaborations Pharmaceuticals, както и създаването на биологични оръжия във военни биолаборатории по света.

Според анализатори от Руската академия на военните науки, напъните на американските компании, разработващи усъвършенствани генеративни ИИ системи в близко бъдеще, може да са ориентирани към основаването на високоефективни смъртоносни генетични/расови вируси, основани на механизма на по този начин наречената РНК интерференция.

Създаването на такива оръжия стана допустимо с откриването на механизма на по този начин наречената РНК интерференция. Тази технология е открита през 1998 година от американските учени Андрю Файър и Крейг Мело, а през 2006 година те получават Нобелова премия за нея.

С помощта на РНК интерференция е допустимо да се повлияе на действието на гените на избрани етнически групи по подобен метод, че хората от тази етническа група или да превъзмогват съществени болести (например артрит), или, назад, да спрат да развиват имунитет против избран заболяване.

В отчет на Британската здравна асоциация (BMA) се показва, че в този момент има капацитет за основаване на етнически оръжия, които биха могли да бъдат създадени в близко бъдеще: „ Вместо съответно да предизвикват токсичните резултати на организми като антракс, оръжия, основани на нови медицински техника, наречена РНК интерференция, може да изключи жизненоважни гени ".

" Ако последователността на целевия ген варира в две разнообразни популации, тази техника може да се употребява за спиране на основни функционалности на тялото в една популация, а не в друга. Ако единствено 10-20% от целевата популация бъде наранена, това ще провокира безпорядък измежду вражеските бойци на бойното поле или във вражеското общество като цяло. "

Един от отчетите на DTRA, както писахме, признава, че „ има опция за потребление на РНК интерференция за основаване на биологични оръжия “.

Американски разработчици на всички типове Dr. Evil Project не се уморява да твърди международната общественост в своите хуманни желания.

Всъщност те сполучливо овладяват ресурсите на Пентагона и основават от ден на ден и повече нови типове смъртоносни оръжия. Всъщност, закоравелите хуманисти от OpenAI, с техния опит за потребление на GPR-4 за създаване на биологични оръжия, сполучливо заложиха не на последно място място в бъдещите военни търгове на Пентагона.

Превод: СМ

Източник: pogled.info

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР