През 1956 г., в разгара на кризата в Суец, британският

...
През 1956 г., в разгара на кризата в Суец, британският
Коментари Харесай

AI вече може да разбива пароли само докато ни слуша как пишем на клавиатура

През 1956 година, в разгара на рецесията в Суец, английският разузнавач Питър Райт слага подслушвателно устройство в стаята за кодиране на египетското посолство в Лондон.

Целта беше да се запишат шумовете, издавани от машините за кодиране на Хагелин на египтяните, с цел да се помогне за разбиването на техния код. Сега английски откриватели сътвориха съвременна версия на тази система, като записаха звуците, издавани от клавиатура на Apple, и използваха изкуствен интелект (AI), с цел да схванат какво е написано.

Учените целят да покажат по какъв начин напредъкът в технологиите за изкуствен интелект, дружно с разпространяването на микрофони в нашия дигитален живот, ни прави уязвими за хакерски атаки

Техният триумф допуска, че всеки, който употребява преносимия компютър си на публично място, може евентуално да бъде записан и декодиран от нарушители или шпиони.

Експертите от университетите в Дърам, Съри и Роял Холоуей образоваха своя AI модел, като натиснаха всеки от 36-те клавиша на MacBook Pro 25 пъти и записаха звука. След това информацията беше въведена в AI, който в последна сметка съумява да разпознава модела на всеки ключ.

След това те сложиха iPhone на 17 см от същия MacBook, с цел да запишат по какъв начин някой написа и съумяха да разработят наличието с 95% акуратност. Когато използваха Zoom, с цел да създадат записа, точността падна до 93%.

„ Всеки клавиш има неповторим тон или глас, който може да бъде с пръстов отпечатък, с цел да се разбере какво е натиснато “, изяснява доктор Ехсан Торейни, един от създателите на проучването, от Центъра за киберсигурност на Университета в Съри, пред The Times.

Торейни организира сходен тест на машина „ Енигма “ преди няколко години.

Алън Тюринг постави доста старания да разбие „ Енигма “, само че дали е било допустимо просто да вграждат микрофон, вместо да разбият цялата система? Би ли било допустимо да се заключи какво пишат германците, като се концентрират единствено върху аудиото? “, попита Торейни.

Отговорът беше „ да “, само че единствено с акуратност от към 70%, която в този момент е доста усъвършенствана.

„ По това време използвахме най-модерните модели и това ви демонстрира мащаба на подобрението, което се случи през последните пет години във връзка с точността на моделите, което по някакъв метод увеличи точността от 70% до към съвършени резултати “, добави той.

Това в този момент значи, че технологията за осъществяване на офанзива по „ непряк канал “ е необятно налична, защото преди този момент е била непокътната територия на военните и разследващата общественост.

Атаките по страничните канали са тези, които се пробват да получат сигнали от информационно устройство и могат да употребяват електромагнитни талази, звучност и консумация на сила. Торейни допусна, че

Apple може да обмисли инжектирането на случайни шумове в натискането на клавиши, с цел да осуети сходни офанзиви, до момента в който Zoom би трябвало да компресира звука си повече

Изследователите също по този начин споделиха, че умният часовник на жертвата може да бъде злепоставен да записва натискания на клавиши. Те показаха, че анализът на придвижването на китката от смарт часовници е посочил, че е разпознал думи с 93,75 % акуратност в предишното.

Торейни споделя, че основата на AI модела, създаден от екипа, е необятно публикуван „ подготвен “ код с отворен код.

„ Така че е съвсем наличен на всички места. Така че човек може да го употребява, с цел да образова своя модел, след което главно да приложи същата офанзива по-късно. “

Едно от най-големите провокации пред регулаторите на изкуствения разсъдък е разпространяването на модели на изкуствен интелект с отворен код. Meta неотдавна пусна Llama 2, модернизиран огромен езиков модел като ChatGPT за отворена разработка. Meta твърди, че това е най-хубавият метод за реализиране на сигурна, постоянна и транспарантна AI технология, само че критиците споделят, че даването на технологията в ръцете на нарушители е безконтролно.

Торейни твърди, че работата му като благонадежден анализатор по сигурността допуска, че отговорът може да не е прекъсването на придвижването с отворен код, само че добави:

„ Трябва да измислим строга платформа, която да съдържа модели за машинно образование. “

Рос Андерсън, професор по инженерство по сигурността в Кеймбридж, сподели за проучването:

„ По-общ проблем в киберсигурността е създаването на това къде новите дълбоки невронни мрежови техники ще оказват помощ на евентуална офанзива или отбраната и също дали смяната ще бъде постепенна или разрушителна. Очаквам, че ще забележим доста забавни нови офанзиви и принадлежности за отбрана през идващите няколко години. ”

Как да се предпазите от офанзива посредством непряк канал?

• Използвайте управител на пароли, който понижава броя на моментите, в които би трябвало да въвеждате пароли

• Използвайте ключова дума, която изисква случайни знаци, a и потреблението на клавиша shift, понижава точността на AI

• Променете действието си при въвеждане — писането с допиране понижава точността на AI

• Използвайте програмен продукт за възпроизвеждане на звуци от натискане на клавиши или бял звук

• Използвайте двуфакторна автентификация за достъп до системи, т.е. втора инспекция благодарение на мобилен телефон или биометрия

Източник: safenews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР