Над 1000 фрази неправилно „събуждат” гласовите асистенти
Устройствата изпращат записи към отдалечени сървъри, където мощни логаритми проучват думите
Гласовите асистенти могат да се окажат пробив в поверителността за потребителите
(снимка: CC0 Public Domain)
Джаджи с гласови асистенти като Alexa, Assistant и Siri се трансфораха в аксесоари в милиони домове, само че бранителите на поверителността от дълго време предизвестяват, че това не е добре. Ново проучване удостовери, че опасността за неприкосновеността може да е по-голяма, в сравнение с се смяташе до момента: над 1000 разнообразни изречения „ разсънват ” асистентите, без потребителят да има желание да ги употребява.
Резултатите демонстрират какъв брой постоянно един нормално диалог и дума или даже единствено разговор от ефирен филм може да задейства гласовия помощник. Оттам насетне той слуша, записва и изпраща звуците до сървъри на Amazon, Apple, Гугъл или различен производител, с цел да бъдат оценени думите. Изследователите са разкрили повече от 1000 последователности от думи, които погрешно и ненадейно задействат умните джаджи.
„ Устройствата са съзнателно програмирани по един „ прощаващ ” метод, защото се допуска, че би трябвало да могат да схващат притежателите си ”, изяснява един от откривателите – Доротея Колоса. „ Следователно е по-вероятно да започват по-скоро по-често от нужното, в сравнение с да не се задействат при потребност ”.
Примери за думи или последователности от думи, които задействат гласовите асистенти излишно, включват:
При доста случаи фразите задействат устройството локално, логаритмите проучват фразите, а в случай че неправилно заключат, че това е израз за „ пробуждане ”, устройствата изпращат записа към отдалечените сървъри, където по-мощни механизми за инспекция проучват думите; те също могат неправилно да ги счетат за изречения за пробуждане. В някои случаи думите или фразите предизвикат единствено локално различаване, само че не и логаритмите „ в облака ”.
Когато устройствата се „ разсънят ”, съгласно откривателите, машинките записват част от казаното и го предават на производителя. Тогава аудиото може да бъде транскрибирано и тествано от чиновниците в опит за възстановяване на разпознаването на думи. Резултатът: фрагменти от евентуално персонални диалози могат да се окажат в логовете на някоя частна компания.
Рискът за неприкосновеността не е единствено научен. През 2016 година органите на реда, проверяващи ликвидиране, желаеха от Amazon данни на Alexa, предадени в моментите, съвпадащи с закононарушението. Миналата година Гардиън заяви, че чиновниците на Apple от време на време транскрибират чувствителни диалози, чувани от Siri. Това включва даже частни полемики сред лекари и пациенти, бизнес-сделки, полови срещи.
Изследователският отчет, озаглавен „ Неприемливо! Къде е моята цялост? ” е направен от група учени с присъединяване на Леа Шьонхер, Максимилиан Гола, Ян Виле, Торстен Айзенхофер, Доротея Колоса и Торстен Холц от Рурския университет „ Бохум ” и Институт „ Макс Планк ” за сигурността и поверителността. В малко изложение на констатациите си учените споделят:
още по тематиката
„ Нашата работа съумя да разпознава повече от 1000 изречения, които погрешно задействат смарт-говорителите. Например, открихме, че според от произношението, Alexa реагира на думите „ недопустим ” и „ избори ”, до момента в който Гугъл постоянно се задейства „ OK, cool ”. Siri може да бъде подведен от „ city ”, Cortana – от „ Монтана ”, Амазон – от „ zone ”…
Изследователите са записали и видео, което демонстрира по какъв начин се случват объркванията. Те са анализирали гласови асистенти от Amazon, Apple, Гугъл, Microsoft и Deutsche Telekom, както и три китайски от Xiaomi, Baidu и Tencent. Резултатите, оповестени преди броени дни, бяха фокусирани върху първите четири.
Целият отчет занапред ще бъде оповестен, само че и преди този момент общите констатации свидетелстват, че гласовите асистенти могат да се окажат пробив в поверителността за потребителите, даже когато хората не считат, че устройствата им ги „ слушат ”. За тези, които са загрижени за неприкосновеността си, най-хубавите решения са устройствата да бъдат изключени „ от контакта ” или просто да бъде отхвърлено потреблението им въобще.
Самите компании-производители на асистентите към момента нямат публична позиция по отношение на изводите от проучването. От Amazon показаха, че не са осведомени с методологията на изследването и не могат да потвърдят точността на направените заключения.
„ Въпреки това можем да ви уверим, че сме вградили механизми за дискретност надълбоко в услугата Alexa и нашите устройства са проектирани да се разсънват единствено след разкриване на събуждащата дума. Клиентите приказват с Alexa милиарди пъти месечно и в редки случаи устройствата могат да се разсънят, откакто чуят дума, която звучи сходно на „ Alexa ” или някоя от другите налични думи за пробуждане. Работим по този начин, че разпознаването на събуждащите думи и разпознаването на тирада се усъвършенстват с всеки минал ден – до момента в който клиентите употребяват своите устройства, ние усъвършенстваме продуктивността ”.
От компанията увериха, че не престават да влагат в възстановяване на технологията за разкриване на събуждащи думи и предизвикват откривателите да споделят своята методология, с цел да отговорят по-подробно.
Гласовите асистенти могат да се окажат пробив в поверителността за потребителите
(снимка: CC0 Public Domain)
Джаджи с гласови асистенти като Alexa, Assistant и Siri се трансфораха в аксесоари в милиони домове, само че бранителите на поверителността от дълго време предизвестяват, че това не е добре. Ново проучване удостовери, че опасността за неприкосновеността може да е по-голяма, в сравнение с се смяташе до момента: над 1000 разнообразни изречения „ разсънват ” асистентите, без потребителят да има желание да ги употребява.
Резултатите демонстрират какъв брой постоянно един нормално диалог и дума или даже единствено разговор от ефирен филм може да задейства гласовия помощник. Оттам насетне той слуша, записва и изпраща звуците до сървъри на Amazon, Apple, Гугъл или различен производител, с цел да бъдат оценени думите. Изследователите са разкрили повече от 1000 последователности от думи, които погрешно и ненадейно задействат умните джаджи.
„ Устройствата са съзнателно програмирани по един „ прощаващ ” метод, защото се допуска, че би трябвало да могат да схващат притежателите си ”, изяснява един от откривателите – Доротея Колоса. „ Следователно е по-вероятно да започват по-скоро по-често от нужното, в сравнение с да не се задействат при потребност ”.
Примери за думи или последователности от думи, които задействат гласовите асистенти излишно, включват:
При доста случаи фразите задействат устройството локално, логаритмите проучват фразите, а в случай че неправилно заключат, че това е израз за „ пробуждане ”, устройствата изпращат записа към отдалечените сървъри, където по-мощни механизми за инспекция проучват думите; те също могат неправилно да ги счетат за изречения за пробуждане. В някои случаи думите или фразите предизвикат единствено локално различаване, само че не и логаритмите „ в облака ”.
Когато устройствата се „ разсънят ”, съгласно откривателите, машинките записват част от казаното и го предават на производителя. Тогава аудиото може да бъде транскрибирано и тествано от чиновниците в опит за възстановяване на разпознаването на думи. Резултатът: фрагменти от евентуално персонални диалози могат да се окажат в логовете на някоя частна компания.
Рискът за неприкосновеността не е единствено научен. През 2016 година органите на реда, проверяващи ликвидиране, желаеха от Amazon данни на Alexa, предадени в моментите, съвпадащи с закононарушението. Миналата година Гардиън заяви, че чиновниците на Apple от време на време транскрибират чувствителни диалози, чувани от Siri. Това включва даже частни полемики сред лекари и пациенти, бизнес-сделки, полови срещи.
Изследователският отчет, озаглавен „ Неприемливо! Къде е моята цялост? ” е направен от група учени с присъединяване на Леа Шьонхер, Максимилиан Гола, Ян Виле, Торстен Айзенхофер, Доротея Колоса и Торстен Холц от Рурския университет „ Бохум ” и Институт „ Макс Планк ” за сигурността и поверителността. В малко изложение на констатациите си учените споделят:
още по тематиката
„ Нашата работа съумя да разпознава повече от 1000 изречения, които погрешно задействат смарт-говорителите. Например, открихме, че според от произношението, Alexa реагира на думите „ недопустим ” и „ избори ”, до момента в който Гугъл постоянно се задейства „ OK, cool ”. Siri може да бъде подведен от „ city ”, Cortana – от „ Монтана ”, Амазон – от „ zone ”…
Изследователите са записали и видео, което демонстрира по какъв начин се случват объркванията. Те са анализирали гласови асистенти от Amazon, Apple, Гугъл, Microsoft и Deutsche Telekom, както и три китайски от Xiaomi, Baidu и Tencent. Резултатите, оповестени преди броени дни, бяха фокусирани върху първите четири.
Целият отчет занапред ще бъде оповестен, само че и преди този момент общите констатации свидетелстват, че гласовите асистенти могат да се окажат пробив в поверителността за потребителите, даже когато хората не считат, че устройствата им ги „ слушат ”. За тези, които са загрижени за неприкосновеността си, най-хубавите решения са устройствата да бъдат изключени „ от контакта ” или просто да бъде отхвърлено потреблението им въобще.
Самите компании-производители на асистентите към момента нямат публична позиция по отношение на изводите от проучването. От Amazon показаха, че не са осведомени с методологията на изследването и не могат да потвърдят точността на направените заключения.
„ Въпреки това можем да ви уверим, че сме вградили механизми за дискретност надълбоко в услугата Alexa и нашите устройства са проектирани да се разсънват единствено след разкриване на събуждащата дума. Клиентите приказват с Alexa милиарди пъти месечно и в редки случаи устройствата могат да се разсънят, откакто чуят дума, която звучи сходно на „ Alexa ” или някоя от другите налични думи за пробуждане. Работим по този начин, че разпознаването на събуждащите думи и разпознаването на тирада се усъвършенстват с всеки минал ден – до момента в който клиентите употребяват своите устройства, ние усъвършенстваме продуктивността ”.
От компанията увериха, че не престават да влагат в възстановяване на технологията за разкриване на събуждащи думи и предизвикват откривателите да споделят своята методология, с цел да отговорят по-подробно.
Източник: technews.bg
КОМЕНТАРИ