Изкуственият интелект еволюира дотам да може да лъже и подвежда,

...
Изкуственият интелект еволюира дотам да може да лъже и подвежда,
Коментари Харесай

Изкуственият интелект може да блъфира

Изкуственият разсъдък еволюира до такава степен да може да лъже и подвежда, предизвестяват учени. В разбор на влиятелния Масачузетски софтуерен институт (MIT) се показват редица образци по какъв начин системи за ИИ мамят противници, блъфират и се вършат на човек. Една система даже изменила държанието си по време на симулация на тест за сигурност, с което подвела изпитващите да я сметнат за надеждна.

" С усъвършенстването на тези качества за машинация, ИИ ще съставлява все по-сериозен риск за обществото ", разяснява доктор Питър Парк, откривател на ИИ в института и водещ създател на проучването. Парк се заема с въпроса, откакто компанията " Мета " - притежател на " Facebook ", създава програмата Cicero. Cicero влезе в топ 10 на действителните играчи в стратегическата игра Diplomacy. " Мета " настояват, че програмата е тренирана да бъде " преобладаващо почтена и дружелюбна " и " в никакъв случай да не атакува целеустремено " съдружниците си хора. " Това изказване беше много подозрително, защото точно нападателните тактики са основни в тази игра ", разяснява Парк.

 
Парк и сътрудниците му са прегледали обществено наличната информация за програмата и са разкрили голям брой образци по какъв начин Cicero употребява авансово измислени неистини, интригантства и въвлича други играчи в разнообразни схеми. В един случай, съвсем като човек, Cicero се оправдава за отсъствието си (породено от обновяване) с лъжата, че приказва с приятелката си по телефона. " Установихме, че изкуственият разсъдък на " Мета " се е трансформирал в занаятчия на измамата ", обобщава Парк.

Екипът на MIT открива сходни проблеми и при други системи. В един случай, ИИ се прави на починал при цифрова симулация, с цел да измами тест, предопределен да отстрани системи, способни бързо да се възпроизвеждат, след което бързо се връща към усилена активност.

Находките в проучването удостоверяват какъв брой мъчно ще бъде да се подсигурява, че ИИ няма да стигне до нежелани и непредвидени действия. " Фактите са много тревожни. Излиза, че в случай че една система се покаже като безвредна на проби, това може да е единствено превземка ", разяснява Парк. Сред заплахите от такова държание са измами, вмешателство на избори, предоставяне на разнообразни отговори за разнообразни консуматори. В последна сметка, човечеството може и да изгуби контрола над ИИ, в случай че качествата му за мамене продължат да напредват, предизвестяват учените. Според тях е належащо да се създадат спомагателни изследвания на този въпрос и да се набележат регулации.

 
" Прието е, че ИИ-системите би трябвало да дават отговор на три условия - да бъдат почтени, потребни и безвредни. Вече е отбелязвано неведнъж обаче, че тези качества си опонират - с почтеност може да нараниш нечии усеща например; а да си потребен за изработката на бомба може да бъде нездравословно. Затова и способността за машинация може от време на време да е желателно качество на една система за ИИ ", разяснява проф. Антъни Кон от Института " Алън Туринг ". Той е склонен с създателите на проучването, че има потребност от още проучвания върху тези въпроси, с цел да се лимитират евентуалните вреди от ИИ, написа 24 часа.

Говорител на " Мета " разяснява във връзка проучването, че работата върху Cicero е единствено изследователска и моделите са създадени само за играта Diplomacy. " Мета " постоянно споделя резултатите от проучванията си, с цел да разреши на други учени да надграждат постигнатото от нас. Нямаме желание да употребяваме тези разработки в продуктите си ", твърдят от компанията.
Източник: glasnews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР