Устройствата изпращат записи към отдалечени сървъри, където мощни алгоритми анализират

...
Устройствата изпращат записи към отдалечени сървъри, където мощни алгоритми анализират
Коментари Харесай

Над 1000 фрази неправилно „събуждат” гласовите асистенти

Устройствата изпращат записи към отдалечени сървъри, където мощни логаритми проучват думите

Гласовите асистенти могат да се окажат пробив в поверителността за потребителите
(снимка: CC0 Public Domain)

Джаджи с гласови асистенти като Alexa, Assistant и Siri се трансфораха в аксесоари в милиони домове, само че бранителите на поверителността от дълго време предизвестяват, че това не е добре. Ново проучване удостовери, че опасността за неприкосновеността може да е по-голяма, в сравнение с се смяташе до момента: над 1000 разнообразни изречения „ разсънват ” асистентите, без потребителят да има желание да ги употребява.

Резултатите демонстрират какъв брой постоянно един нормално диалог и дума или даже единствено разговор от ефирен филм може да задейства гласовия помощник. Оттам насетне той слуша, записва и изпраща звуците до сървъри на Amazon, Apple, Гугъл или различен производител, с цел да бъдат оценени думите. Изследователите са разкрили повече от 1000 последователности от думи, които погрешно и ненадейно задействат умните джаджи.

„ Устройствата са съзнателно програмирани по един „ прощаващ ” метод, защото се допуска, че би трябвало да могат да схващат притежателите си ”, изяснява един от откривателите – Доротея Колоса. „ Следователно е по-вероятно да започват по-скоро по-често от нужното, в сравнение с да не се задействат при потребност ”.

Примери за думи или последователности от думи, които задействат гласовите асистенти излишно, включват:

При доста случаи фразите задействат устройството локално, логаритмите проучват фразите, а в случай че неправилно заключат, че това е израз за „ пробуждане ”, устройствата изпращат записа към отдалечените сървъри, където по-мощни механизми за инспекция проучват думите; те също могат неправилно да ги счетат за изречения за пробуждане. В някои случаи думите или фразите предизвикат единствено локално различаване, само че не и логаритмите „ в облака ”.

Когато устройствата се „ разсънят ”, съгласно откривателите, машинките записват част от казаното и го предават на производителя. Тогава аудиото може да бъде транскрибирано и тествано от чиновниците в опит за възстановяване на разпознаването на думи. Резултатът: фрагменти от евентуално персонални диалози могат да се окажат в логовете на някоя частна компания.

Рискът за неприкосновеността не е единствено научен. През 2016 година органите на реда, проверяващи ликвидиране, желаеха от Amazon данни на Alexa, предадени в моментите, съвпадащи с закононарушението. Миналата година Гардиън заяви, че чиновниците на Apple от време на време транскрибират чувствителни диалози, чувани от Siri. Това включва даже частни полемики сред лекари и пациенти, бизнес-сделки, полови срещи.

Изследователският отчет, озаглавен „ Неприемливо! Къде е моята цялост? ” е направен от група учени с присъединяване на Леа Шьонхер, Максимилиан Гола, Ян Виле, Торстен Айзенхофер, Доротея Колоса и Торстен Холц от Рурския университет „ Бохум ” и Институт „ Макс Планк ” за сигурността и поверителността. В малко изложение на констатациите си учените споделят:
още по тематиката
„ Нашата работа съумя да разпознава повече от 1000 изречения, които погрешно задействат смарт-говорителите. Например, открихме, че според от произношението, Alexa реагира на думите „ недопустим ” и „ избори ”, до момента в който Гугъл постоянно се задейства „ OK, cool ”. Siri може да бъде подведен от „ city ”, Cortana – от „ Монтана ”, Амазон – от „ zone ”…

Изследователите са записали и видео, което демонстрира по какъв начин се случват объркванията. Те са анализирали гласови асистенти от Amazon, Apple, Гугъл, Microsoft и Deutsche Telekom, както и три китайски от Xiaomi, Baidu и Tencent. Резултатите, оповестени преди броени дни, бяха фокусирани върху първите четири.

Целият отчет занапред ще бъде оповестен, само че и преди този момент общите констатации свидетелстват, че гласовите асистенти могат да се окажат пробив в поверителността за потребителите, даже когато хората не считат, че устройствата им ги „ слушат ”. За тези, които са загрижени за неприкосновеността си, най-хубавите решения са устройствата да бъдат изключени „ от контакта ” или просто да бъде отхвърлено потреблението им въобще.

Самите компании-производители на асистентите към момента нямат публична позиция по отношение на изводите от проучването. От Amazon показаха, че не са осведомени с методологията на изследването и не могат да потвърдят точността на направените заключения.

„ Въпреки това можем да ви уверим, че сме вградили механизми за дискретност надълбоко в услугата Alexa и нашите устройства са проектирани да се разсънват единствено след разкриване на събуждащата дума. Клиентите приказват с Alexa милиарди пъти месечно и в редки случаи устройствата могат да се разсънят, откакто чуят дума, която звучи сходно на „ Alexa ” или някоя от другите налични думи за пробуждане. Работим по този начин, че разпознаването на събуждащите думи и разпознаването на тирада се усъвършенстват с всеки минал ден – до момента в който клиентите употребяват своите устройства, ние усъвършенстваме продуктивността ”.

От компанията увериха, че не престават да влагат в възстановяване на технологията за разкриване на събуждащи думи и предизвикват откривателите да споделят своята методология, с цел да отговорят по-подробно.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА



Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР