Технологията вече е близо до съвършенството, твърдят експертиМилиони долари са

...
Технологията вече е близо до съвършенството, твърдят експертиМилиони долари са
Коментари Харесай

Изкуствен интелект симулира гласа на шефа с цел измама

Технологията към този момент е покрай съвършенството, настояват специалисти

Милиони долари са откраднати посредством фалшификации на гласа на шефовете (снимка: CCO Public Domain)

Технологии те за изкуствен интелект могат да се употребяват в системи за машинно образование, които симулират изцяло речта на вс еки човек, вкл . топ мениджъри и даже на г лавните изпълнителни шефове на корпорациите, сигнализира Symantec.

Компанията е изследвала редица киберпрестъпления, употребяващи подправени гласове на топ мениджъри. Според специалистите, такива системи могат да се ползват от киберпрестъпниците за кражба на активи, включително финансова, корпоративна и персонална информация.

Според Symantec, технологията към този момент е употребена за кражба на „ милиони долари ”. Анализаторите на компанията оповестяват за минимум три случая, в които подправените гласове на основни изпълнителни шефове са били употребявани за машинация на ръководителите на финансовите отдели на същите компании за евакуиране на средства. Имената на засегнатите компании не бяха разкрити.

Новата кибер-измамна технология е наречена „ Deepfaked Audio ” от анализаторите на Symantec, т.е. „ подправено аудио, основано на машинно образование ”. За първи път британският термин „ Deepfake ”, синтезиран от изразите „ Deep Learning ” и „ Fake ”, се появи преди няколко години по отношение на технология, при която изкуственият разсъдък образова системи, употребяващи същински облици и човешки видеоклипове за синтезиране на подправено видео.

Много обществени персони и ръководители на компании станаха жертви на „ надълбоко фалшифицирано видео ”. Един от най-известните кавги е появяването в обществените мрежи на подправено видео с Марк Зукърбърг, шефа на Фейсбук. Известен е и казусът с реален подправен клип с тирада на някогашния президент на Съединени американски щати Барак Обама.
още по тематиката
Всичко, което е належащо за „ образованието ” на технологията за „ надълбоко фалшифицирано аудио ”, са задоволителен брой аудиозаписи на хипотетичната жертва, отбелязва Symantec. След това изкуственият разсъдък употребява аудиото за образование на двете така наречен „ генеративни спортни мрежи ” (GAN).

В процеса на учене двете невронни мрежи „ се конкурират ” между тях: човек генерира имитации, другият се пробва да разграничи подправената от действителната извадка от данни, а в процеса и двете мрежи се учат от грешките си.

В случаите на закононарушения против ръководители на компании, аудио източниците за образование с ИИ могат да бъдат голям брой обществено налични гласови записи – корпоративни видеоклипове, аудио записи на тримесечни конференции за вложители, обществени изявления, отчети на конференции, презентации и други

Според доктор Хю Томпсън, основен механически шеф на Symantec, симулацията на глас и технологията за фалшифизиране към този момент са доста покрай съвършенството. В процеса на реплика на гласа, киберпрестъпниците употребяват разнообразни трикове.

Например – характерният фонов звук им разрешава да маскират произношението на срички и думи в минимум безапелационните места. За такива цели се употребява реплика на прекратена мобилна връзка или фонов звук от препълнено с хора място.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР