Само че в същото споразумение, подписано от повече от 90

...
Само че в същото споразумение, подписано от повече от 90
Коментари Харесай

Отдавна трябваше: десетки водещи учени подписаха документ, целящ да предотврати разработването на биологични оръжия с помощта на изкуствен интелект

Само че в същото съглашение, подписано от повече от 90 учени, се споделя още, че изгодите от изкуствения разсъдък за биологията ще надвишават възможните вреди.

Миналата година Дарио Амодей, началник на Anthropic, известна компания за изкуствен интелект, съобщи пред Конгреса, че новите технологии за изкуствен интелект скоро биха могли да оказват помощ на неумели, само че злонамерени хора да извършат огромни биологични офанзиви. Като да вземем за пример да основат и пуснат вируси или токсични субстанции, които да причинят всеобщи болести и гибел.

Сенаторите и от двете партии бяха разтревожени, а откривателите на ИИ в промишлеността и университетските среди дебатираха какъв брой въпреки всичко сериозна може да бъде опасността.

Синтетични протеини?

Ето че в този момент над 90 биолози и други учени, профилирани в технологиите за ИИ изрекоха друго мнение. По-точно по отношение на технологиите употребявани за планиране на нови протеини. Това са микроскопични формирания, които са в основата на цялата биология. Тези учени подписаха съглашение, което има за цел да подсигурява, че техните проучвания в региона на ИИ ще продължат, без да излагат света на сериозен риск.

Биолозите, измежду които е и нобеловият лауреат Франсис Арнолд, представляващи лаборатории в Съединени американски щати и други страни, обявиха също по този начин, че най-новите технологии ще донесат доста повече изгоди, в сравнение с вреди. Като да вземем за пример нови ваксини и медикаменти.

„ Като учени, занимаващи се с тази работа, ние имаме вяра, че изгодите от актуалните AI технологии за планиране на протеини надалеч надвишават евентуалните вреди. И бихме желали нашите проучвания да останат потребни за всички и в бъдеще “,

се споделя в съглашението.

Нов генетичен материал?

Споразумението няма за цел да потисне развиването или разпространяването на технологиите за изкуствен интелект. Вместо това биолозите се стремят да контролират потреблението на оборудването, належащо за производството на нов генетичен материал.

Според Дейвид Бейкър, шеф на Института за планиране на протеини към Вашингтонския университет, който е оказал помощ за правенето на съглашението, оборудването за произвеждане на ДНК в последна сметка дава опция за създаване на биологични оръжия.

„ Проектирането на протеини е единствено първата стъпка в основаването на синтетични протеини “, сподели той в изявление. „ След това би трябвало да синтезирате ДНК и да придвижите дизайна от компютъра в действителния свят. Ето това е най-подходящото място за регулация “.

Дейвид Бейкър от Вашингтонския университет споделя, че регулирането би трябвало да се концентрира върху физическите принадлежности. Тези, които биха били нужни за основаването на биологично оръжие.

Споразумението е един от многото опити да се претеглят рисковете, свързани с потреблението на изкуствен интелект, по отношение на вероятните изгоди. Тъй като от една страна някои специалисти предизвестяват, че ИИ технологиите могат да спомогнат за разпространението на дезинформация, да заменят работни места с изключително бързи темпове. И може би даже да унищожат човечеството. От друга страна мнозина от софтуерните компании, университетските лаборатории, регулаторните органи и законодателите се пробват да схванат тези опасности. Както и да намерят способи да се оправят с тях.

Компанията на доктор Амодей, Anthropic, основава огромни езикови модели, или LLM. Добре познатата към този момент технология за ръководство на онлайн чатботове. В изявление пред Конгреса той съобщи, че тази технология скоро може да помогне на злоумишлениците да основат нови биологични оръжия.

Той обаче призна, че през днешния ден това не е допустимо. Неотдавна Anthropic организира в детайли изследване, което сподели, че в случай че някой се пробва да се снабди или да създаде биологично оръжие, LLM ботовете се оказват напълно малко по-полезни от типичната интернет търсачка.

Д-р Амодей и други специалисти се притесняват, че с усъвършенстването на LLM от страна на фирмите и комбинирането им с други технологии ще се стигне до сериозна опасност. Той съобщи пред Конгреса, че това ще се случи единствено след две-три години.

Дарио Амодей, началник на Anthropic

OpenAI, основател на онлайн чатбота ChatGPT, по-късно организира сходно изследване, което откри, че LLM не е доста по-опасен от търсачките. Александър Мондри, професор по компютърни науки в Масачузетския софтуерен институт и основен отговорник по готовността на OpenAI, съобщи, че има вяра, че откривателите ще продължат да усъвършенстват тези системи. И че до момента той не е виждал доказателства, че с тяхна помощ ще може да се сътвори ново биологично оръжие.

Днешните LLM се основават посредством разбор на големи количества цифрови текстове, събрани от целия интернет. Това значи, че те преработват и/или рекомбинират това, което към този момент е налично онлайн. Включително съществуваща информация за биологични офанзиви. (The New York Times съди OpenAI и нейния сътрудник, Microsoft, като твърди, че са нарушени авторските права в този процес).

Новите медикаменти

Но в устрема си да ускорят създаването на нови медикаменти, ваксини и други потребни биологични материали, откривателите стартират да основават тясно профилирани ИИ системи с изкуствен интелект. Те могат да генерират напълно нови и непознати протеинови структури. Биолозите настояват, че тази технология би могла да помогне и на злоумишлениците да разработят биологични оръжия. Но въпреки всичко означават, че основаването на такива оръжия би изисквало лаборатория за доста милиони долари. Включително съоръжение за производството на ДНК.

„ Съществуват избрани опасности, които не изискват инфраструктура за милиони долари. Но тези опасности съществуват от дълго време и не са свързани с изкуствения разсъдък “,

казва Андрю Уайт, съосновател на организацията с нестопанска цел Future House и един от биолозите, подписали съглашението.

Биолозите приканиха за ограничения за сигурност, които да предотвратят потреблението на съоръжение за произвеждане на ДНК с нездравословни за организма качества. Въпреки че не е ясно по какъв начин ще работят тези ограничения. Те също по този начин приканиха новите ИИ модели да бъдат тествани за сигурност и надеждност, преди да бъдат пуснати на пазара.

„ Тези технологии не би трябвало да бъдат владеене единствено на дребен брой хора или организации “, съобщи Рама Ранганатан, професор по биохимия и молекулярна биология в Чикагския университет, който също подписа съглашението. „ Общността на учените би трябвало да бъде свободна да ги учи и да способства за тяхното развиване “.

Статията е на The New York Times и слага забавния въпрос коя група от учени може да да е на по-верния път. Тази, която посредством този писмен документ отхвърли потреблението на ИИ за основаването на изкуствени протеини и невиждани до момента генетични материали, които могат да се употребяват за основаването на невероятни биологични оръжия. Или другата група откриватели, които са на мнение, че ИИ може да се употребява за основаването на нови медикаменти, които могат да подобрят здравето и продължителността на живота на хората.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР