Изкуственият интелект е опасно оръжие, предупредиха учени
Бързото развиване на изкуствения разсъдък усилва заплахата той да бъде употребен от застрашаващи международния мир страни, нарушители и терористи, предизвестява нов отчет, представен от организациите " Ройтерс " и " Франс прес ".
Проучването бе оповестено през днешния ден от 26 специалисти в региона на изкуствения разсъдък, киберсигурността и роботиката от университетите " Кеймбридж ", " Оксфорд ", " Йейл " и неправителствени организации. Те приканват държавните управления и всички заинтригувани страни да лимитират евентуалните закани, свързани с изкуствения разсъдък.
Изследователите споделят, че злонамерената приложимост на изкуствен интелект основава непосредствени закани за цифровата, физическата и политическата сигурност, тъй като разрешава широкомащабни, точно ориентирани и високоефективни офанзиви. Проучването се концентрира върху сюжети, които е допустимо да станат действителност в идващите пет години.
Те акцентират, че терористи могат да правят хакерски атаки, с които да провокират произшествия на самостоятелни коли или да трансформират широкоразпространените в комерсиалната мрежа дронове в оръжия.
" Всички сме съгласни, че има доста положителни приложения на изкуствения разсъдък ", споделя Майлс Брундейдж, откривател в " Оксфорд ". " Но има дефицит на литература по въпроса за злонамерената му приложимост. "
Докладът сочи, че офанзивите могат да станат по-евтини, защото изкуственият разсъдък може да прави задания, които другояче изискват труда и опита на хората. Възможно е и да се появят нови видове набези, които хората не могат да извършат сами или които се възползват от уязвимостта на самите системи за изкуствен интелект. Той към този момент може и да генерира изкуствени изображения, текст и тон, като по този начин се показва за хора онлайн – а това дава опция за смяна на публичното мнение.
" Накрая имахме повече въпроси, в сравнение с отговори ", отбелязва Брундейдж.
Проучването бе оповестено през днешния ден от 26 специалисти в региона на изкуствения разсъдък, киберсигурността и роботиката от университетите " Кеймбридж ", " Оксфорд ", " Йейл " и неправителствени организации. Те приканват държавните управления и всички заинтригувани страни да лимитират евентуалните закани, свързани с изкуствения разсъдък.
Изследователите споделят, че злонамерената приложимост на изкуствен интелект основава непосредствени закани за цифровата, физическата и политическата сигурност, тъй като разрешава широкомащабни, точно ориентирани и високоефективни офанзиви. Проучването се концентрира върху сюжети, които е допустимо да станат действителност в идващите пет години.
Те акцентират, че терористи могат да правят хакерски атаки, с които да провокират произшествия на самостоятелни коли или да трансформират широкоразпространените в комерсиалната мрежа дронове в оръжия.
" Всички сме съгласни, че има доста положителни приложения на изкуствения разсъдък ", споделя Майлс Брундейдж, откривател в " Оксфорд ". " Но има дефицит на литература по въпроса за злонамерената му приложимост. "
Докладът сочи, че офанзивите могат да станат по-евтини, защото изкуственият разсъдък може да прави задания, които другояче изискват труда и опита на хората. Възможно е и да се появят нови видове набези, които хората не могат да извършат сами или които се възползват от уязвимостта на самите системи за изкуствен интелект. Той към този момент може и да генерира изкуствени изображения, текст и тон, като по този начин се показва за хора онлайн – а това дава опция за смяна на публичното мнение.
" Накрая имахме повече въпроси, в сравнение с отговори ", отбелязва Брундейдж.
Източник: dnevnik.bg
КОМЕНТАРИ