Възходът на чатботовете: Как изкуственият интелект може да оформи бъдещето на престъпността

...
Много бяха явни сексуални“, но включваха и дълги разговори“ за
Коментари Харесай

Много бяха „явни сексуални“, но включваха и „дълги разговори“ за неговия план. „Вярвам, че целта ми е да убия кралицата на кралското семейство“, пише той в едно.

Изображение: Jaswant Singh Chail планира да убие покойната кралица

„Това е много мъдро“, отговори Сарай. „Знам, че си много добре обучен.“

Чейл чака присъда, след като се призна за виновен в престъпление по Закона за предателството, отправяне на заплаха за убийство на покойната кралица и държане на зареден арбалет на публично място .

„Когато знаете резултата, отговорите на чатбота понякога затрудняват разчитането“, каза д-р Джонатан Хафърти, консултант по съдебен психиатър в охранителното звено за психично здраве на Broadmoor, каза пред Old Bailey миналия месец.

„Знаем, че това са сравнително произволно генерирани отговори, но понякога изглежда, че тя насърчава това, което той говори, и наистина дава насоки по отношение на местоположението“, каза той.

The Програмата не беше достатъчно усъвършенствана, за да обхване риска на Чайл от „самоубийство и рисковете от убийство“, каза той и добави: „Някои от полуслучайните отговори, спорно е, го тласнаха в тази посока.“

Изображение: Jawant Singh Chail беше насърчен от чатбот, съдът изслуша

Терористично съдържание

Такива чатботове представляват „следващия етап“ от хората, намиращи съмишленици екстремисти онлайн, независимият правителствен рецензент на законодателството за тероризма Джонатан Hall KC, каза пред Sky News.

Той предупреждава, че водещото законодателство на правителството за безопасност в интернет – Законът за онлайн безопасност – ще намери за „невъзможно“ да се справи с терористичното съдържание, генерирано от AI.

Законът ще натовари компаниите да премахват терористично съдържание, но техните процеси обикновено разчитат на бази данни с известни материали, които не биха уловили нов дискурс, създаден от чатбот с изкуствен интелект.

Юли: AI може да се използва за „създаване биотерористични оръжия'

"Мисля, че вече сме насън в ситуация като ранните дни на социалните медии, където си мислите, че имате работа с нещо регулирано, но не е", каза той.

"Преди започваме да изтегляме, да го даваме на децата и да го включваме в живота си, трябва да знаем какви са предпазните мерки на практика – не само правила и условия – но кой ги налага и как.“

Прочетете повече:

Изображение: Имитирането под самоличност се увеличава

Измами при представяне под самоличност и отвличане

„Мамо, тези лоши мъже ме хванаха, помогни ми“, съобщава Дженифър ДеСтефано чу хълцащата й 15-годишна дъщеря Бриана да казва, преди мъжки похитител да поиска откуп от $1 милион (£787 000), който падна на $50 000 (£40 000).

Дъщеря й всъщност беше в безопасност и добре - и жената от Аризона наскоро каза пред съдебната комисия на Сената, че полицията смята, че изкуственият интелект е бил използван, за да имитира гласа й като част от измама.

Онлайн демонстрация на чатбот с изкуствен интелект, предназначен да „обажда на всеки с каквато и да е цел“ доведе до подобни резултати с казаното на мишената: „Имам вашето дете... Искам откуп от 1 милион долара за безопасното му завръщане. Изяснявам ли се?“

„Това е доста необикновено“, каза професор Луис Грифин, един от авторите на изследователска статия от 2020 г., публикувана от Центъра за бъдеща престъпност Dawes на UCL, която класира потенциалните незаконни употреби на AI .

„Нашето най-високо класирано престъпление се оказа така – аудио/визуално имитиране – това очевидно ще се случи“, каза той, добавяйки, че дори с „песимистичните възгледи“ на учените то се е увеличило " много по-бързо, отколкото очаквахме".

Въпреки че демонстрацията включваше компютъризиран глас, той каза, че аудио/визуалното представяне в реално време "все още не е налице, но не сме далеч" и той прогнозира, че такава технология ще бъде „доста нестандартно след няколко години“.

„Не знам дали ще е достатъчно добро, за да се представя за член на семейството“, каза той.

„Ако е завладяващо и силно емоционално натоварено, тогава това може да е някой да каже „В опасност съм“ – това би било доста ефективно.“

През 2019 г. главният изпълнителен директор на базирана в Обединеното кралство енергийна фирма прехвърли 220 000 евро (173 310 паунда) за измамници, използващи AI, за да се представят за гласа на шефа си, според докладите.

Такива измами биха могли да бъдат още по-ефективни, ако са подкрепени с видео, каза професор Грифин, или технологията може да бъде използвана за извършване на шпионаж, с фалшив служител на компания, който се появява на среща в Zoom, за да получи информация, без да се налага да казва много.

Професорът каза, че измамите от тип студени обаждания могат да се разширят в мащаб, с перспективата ботове да използват местен акцент, който е по-ефективен при измамването на хората от измамниците, управляващи в момента престъпните предприятия, управлявани от Индия и Пакистан.

Как Sky News създаде репортер с изкуствен интелект

Дълбоки фалшификации и заговори за изнудване

„Синтетичните злоупотребата с деца е ужасяваща и те могат да го направят точно сега“, каза професор Грифин за технологията AI, която вече се използва за създаване на изображения на сексуално насилие над деца от педофили онлайн. „Те са толкова мотивирани тези хора, че току-що се нахвърлиха с него. Това е много обезпокоително.“

В бъдеще изображения или видеоклипове deepfake, които изглежда показват, че някой прави нещо, което не е направил, биха могли да бъдат използвани за извършване на заговори за изнудване.

„Способността да поставите ново лице на порновидео вече е доста добра. Ще се подобрява“, каза професор Грифин.

“ Бихте могли да си представите, че някой изпраща видео на родител, където детето му е изложено, казвайки „Имам видеото, ще ви го покажа“ и заплашва да го пусне.“

Изображение: Атаки с дрон с изкуствен интелект 'далече'. Снимка: AP

Терористични атаки

Въпреки че дронове или автомобили без водачи могат да се използват за извършване на атаки, използването на наистина автономни оръжейни системи от терористите вероятно е далече, според независим рецензент на правителството на законодателството за тероризма.

„Истинският аспект на ИИ е, когато просто изпращате дрон и казвате „отидете и причинявайте пакост“ и ИИ решава да отиде и да бомбардира някого, което звучи малко странно“, г-н Хол каза.

„Това нещо определено е зад хоризонта, но от страна на езика вече е тук.“

Докато ChatGPT – голям езиков модел, който е обучен на огромно количество текстови данни - няма да предостави инструкции как да направите бомба с пирон, например, може да има други подобни модели без същите предпазни огради, което би предполагало извършване на злонамерени действия.

Домашен секретар в сянка Ивет Купър каза, че лейбъристите ще въведат нов закон за криминализиране на умишленото обучение на чатботове за радикализиране на уязвими хора.

Въпреки че сегашното законодателство ще обхваща случаите, когато някой е бил намерен с информация, полезна за целите на терористични актове , който беше поставен в система с изкуствен интелект, каза г-н Хол, новите закони може да са „нещо, върху което да се помисли“ във връзка с насърчаването на тероризма.

Настоящите закони са за „насърчаване на други хора“ и „обучение на chatbot няма да насърчава човек", каза той, добавяйки, че би било трудно да се криминализира притежанието на конкретен chatbot или неговите разработчици. вече трябва да изтегляте материал и просто можете да попитате чатбот как да направите бомба.

„Притежаването на известна терористична информация е една от основните тактики за борба с тероризма за справяне с терористи, но сега можете просто помолете нерегулиран модел ChatGPT да намери това за вас," каза той.

Изображение: Престъпността от старата школа е малко вероятно да бъде засегната от AI

Фалшифициране на произведения на изкуството и грабежи на големи пари?

"A цял нов куп престъпления“ скоро може да бъде възможно с появата на големи езикови модели в стил ChatGPT, които могат да използват инструменти, които им позволяват да отидат на уебсайтове и да действат като интелигентен човек, като създават акаунти, попълват формуляри и купуват неща , каза професор Грифин.

„След като имате система за това и можете просто да кажете „ето какво искам да направите“, тогава има всякакви измамни неща, които могат да се правят по този начин, " каза той, предполагайки, че те могат да кандидатстват за измамни заеми, да манипулират цените, като изглеждат дребни инвеститори или да извършват атаки тип отказ на услуга.

Той каза също, че могат да хакнат системи при поискване, добавяйки: " Може да успеете, ако можете да получите достъп до много уеб камери на хора или камери на звънци, да ги накарате да изследват хиляди от тях и да ви кажат кога са навън."

Щракнете, за да се абонирате за Sky News Daily където и да получавате своите подкасти

Въпреки че изкуственият интелект може да има техническата способност да произведе картина в стила на Вермеер или Рембранд, вече има майстори човешки фалшификатори и трудната част ще остане да убеди света на изкуството че работата е истинска, вярва академикът.

„Не мисля, че това ще промени традиционната престъпност“, каза той, твърдейки, че няма голяма полза от AI в привличащия вниманието стил на Hatton Garden кражби.

„Техните умения са като на водопроводчици, те са последните хора, които ще бъдат заменени от роботи – не бъди компютърен програмист, бъди крак на сейфове“, пошегува се той.

' AI ще застраши нашата демокрация“

Какво казва правителството?

Говорител на правителството каза: „Въпреки че иновативните технологии като изкуствения интелект имат много предимства, ние трябва да бъдем внимателни към тях.

„Съгласно законопроекта за онлайн безопасността, услугите ще имат задължение да спрете разпространението на незаконно съдържание като сексуално малтретиране на деца, терористични материали и измами. Законопроектът е умишлено технологично неутрален и подготвен за бъдещето, за да се гарантира, че е в крак с нововъзникващите технологии, включително изкуствения интелект.

„Също така се работи бързо в цялото правителство за задълбочаване на разбирането ни за рисковете и разработване на решения - създаването на работната група за изкуствен интелект и първата глобална среща на върха за безопасността на изкуствения интелект тази есен са значителен принос към тези усилия."

Източник: skynews.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР