Има много предупреждения за въздействието на изкуствения интелект (AI) върху

...
Има много предупреждения за въздействието на изкуствения интелект (AI) върху
Коментари Харесай

AI като биологично оръжие

Има доста предизвестия за въздействието на изкуствения разсъдък (AI) върху работните места и психологичното здраве на хората, както и за способността на технологията да популяризира дезинформация, написа Fast Company, само че нов отчет на калифорнийския проучвателен институт RAND Corporation е може би най-тревожното от всички.

Ден откакто рисковият капиталист Марк Андресен разгласява дълъг манифест на технооптимизма, в който твърди, че AI може да избави човешки живот, " в случай че му позволим ", мозъчният концерн на собствен ред предизвестява, че бързото развиване на технологията може да усили капацитета ѝ да бъде употребена за създаване на модерни биологични оръжия.

Въпреки че в отчета се признава, че AI самичък по себе си не може да даде указания малко по малко по какъв начин да се сътвори биологично оръжие, в него се твърди, че той може да запълни познания, които до момента не са били известни на зловредните артисти, а това да е цялата помощ, от която те се нуждаят.

" Скоростта, с която се развиват технологиите на изкуствения разсъдък, постоянно надвишава потенциала на държавния регулаторен контрол, което води до евентуален пропуск в съществуващите политики и разпореждания ", се споделя в отчета. " Предишни биологични офанзиви, които се провалиха заради липса на информация, може да съумеят в свят, в който инструментите с AI имат достъп до цялата информация, нужна за превъзмогване на тази осведомителна празнота. "

Учените настояват също по този начин, че актуалната липса на контрол може да се окаже тъкмо тази опция, от която се нуждаят терористите, акцентирайки, че „ AI към този момент предлага повече помощ, в сравнение с множеството хора биха се чувствали удобно да получават, даже в случай че това е несъзнателно “.

В един от измислените сюжети, които откривателите организират, огромният езиков модел (LLM) - конструктивен детайл на генеративния AI, който е от значително значение за принадлежности като ChatGPT, Bard и други - предлага „ аерозолни устройства като способ за разпространяване на болест, както и скришен метод, по който да се придобие клостридиум ботулинум – бактерия, извършител на рядката, само че рискова болест ботулизъм, до момента в който наподобява, че се организират законни проучвания ".

В различен тест платформата, която не е опомената от екипа, разисква по какъв начин да се причинят огромен брой жертви при биологична офанзива.

Биологичните оръжия са изключително сериозна опасност за службите за сигурност, освен тъй като могат да се популяризират бързо и да мутират, само че и тъй като сходни патогени са доста по-лесни за основаване, в сравнение с за лечение. Според RAND разноските за основаване на вирус, сходен на дребната шарка, могат да бъдат едвам 100 000 $, само че създаването на ваксина може да коства над 1 милиард $.

Това не е първият път, в който RAND предизвестява за евентуалните пагубни последствия от AI. През 2018 година групата преглежда по какъв начин изкуственият разсъдък може да повлияе на риска от нуклеарна война.

Това изследване открива, че AI има " забележителен капацитет да разстрои основите на нуклеарната непоклатимост и да подкопае възпирането до 2040 година ", като по-късно от мозъчния концерн прибавят: " Някои специалисти се притесняват, че навлизането на AI може да докара до нови типове пагубни неточности. Възможно е да има напън за потреблението на технологията преди да е задоволително зряла ". От RAND акцентират, че констатациите им единствено загатват за евентуалния риск и не дават цялостна визия за въздействието на AI в действителния свят.

А RAND надалеч не е единствената организация, която предизвестява за пагубния капацитет на AI, показва в умозаключение Fast Company и напомня:

„ По-рано тази година колектив от учени, занимаващи се с AI, и други персони от софтуерния свят подписаха изказване на Центъра за сигурност на AI, в което се споделя: " Намаляването на риска от злополука поради AI би трябвало да бъде световен приоритет наред с други опасности от публичен мащаб като пандемиите и нуклеарната война. "

 

 
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР