Едно от големите опасения, че ИИ може да пресъздаде перфектно

...
Едно от големите опасения, че ИИ може да пресъздаде перфектно
Коментари Харесай

Измамници използват изкуствен интелект за генериране на глас, за да мамят хора за пари

Едно от огромните опасения, че ИИ може да пресъздаде съвършено гласа на човек е капацитетът му за измами. През последните няколко месеца този тип технологии означиха голям прогрес и, което не е изненадващо, с тях злоупотребяват нарушители, които могат да подменят гласа, с цел да убедят фамилията на притежателя, че лицето се нуждае от финансова помощ.

Вестник „ Washington Post “ оповестява, че канадска двойка на 70 години неотдавна е получила телефонно позвъняване от човек, който е приличал на внука им и е твърдял, че е в пандиза и се нуждае от пари за освобождение под гаранция. Те изтеглили 3000 канадски $ от една банка и се готвели да изтеглят същата сума от друга, когато мениджърът им споделил, че са излъгани. Оказало се, че различен клиент е получил сходно позвъняване и научил, че то е подправено.

Друга двойка, която нямала подобен шанс, били родителите на Бенджамин Перкин. Те получили позвъняване от юрист, който споделил, че синът им е умъртвил американски посланик при автомобилна злополука, а Перкин е в пандиза и се нуждае от пари за правосъдни такси. Адвокатът дал телефона на Перкин, който споделил, че ги обича и е признателен за парите.

Гласът звучал „ задоволително близко, с цел да могат родителите ми в действителност да повярват, че в действителност приказват с мен “, споделя Пъркин. Родителите му изпратили 15 449 $ на измамника посредством биткойн терминал и не са съумели да си ги върнат.

Гласовите измами не са нещо ново. Данните на Федералната комерсиална комисия в Съединени американски щати разкриват, че от 36 000 сигнала през предходната година за хора, излъгани от нарушители, представящи се за другари или родственици, над 5100 от тези произшествия са станали по телефона.

В предишното подправянето на гласа на даден човек беше комплицирана и продължителна процедура, включваща откриването и събирането на часове аудиозаписи, а крайният резултат не постоянно беше доста безапелационен. Сега обаче инструментите на изкуствения разсъдък направиха процеса толкоз елементарен, че измамниците се нуждаят единствено от дребен клип на говорещ човек, постоянно събран от профил в обществена медия, с цел да пресъздадат тъкмо гласа му.

Пример за тази технология е инструментът Vall-E на Microsoft, който компанията разгласи през януари. Надграждайки върху технология, наречена EnCodec, която Meta разгласи през октомври 2022 година, той работи, като проучва гласа на даден човек, разделя информацията на съставни елементи и употребява образованието си, с цел да синтезира по какъв начин би звучал гласът, в случай че говореше разнообразни изречения. Дори откакто чуе единствено трисекунден пример, Vall-E може да възпроизведе тембъра и прочувствения звук на говорещия. Вижте какъв брой страховито безапелационно е това на тази страница в GitHub.

ElevenLabs, която предлага инструмент за генериране на глас с изкуствен интелект, неотдавна написа в Twitter, че следи „ от ден на ден случаи на корист с клониране на глас “. Това докара до унищожаване на опцията за клониране на глас от безплатната версия на програмата VoiceLab.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР