Не толкова често, колкото си мислите Емил Василев преди 15

...
Не толкова често, колкото си мислите Емил Василев преди 15
Коментари Харесай

Проучване показва колко често хората могат да разпознават гласове, генерирани от изкуствен интелект

Не толкоз постоянно, колкото си мислите

Емил Василев преди 15 секунди 1 Сподели

Най-четени

КосмосЕмил Василев - 19:00 | 01.08.2023

Австралийската галактическа организация разкри произхода на мистериозния обект, открит на краибрежието ѝ

АвтомобилиИван Давидов - 7:02 | 01.08.2023

ТОП 10 на най-безнадеждните Мерцедеси. Те просто са първенци по проблеми

КосмосЕмил Василев - 12:16 | 01.08.2023

Ракетата Falcon 9 на SpaceX може да е пробила дупка в йоносферата

Емил Василевhttps://www.kaldata.com/

Можете ли да разберете дали гласът е генериран от изкуствен интелект, даже когато знаете, че това, което слушате може да е deepfake? Това може да не е толкоз елементарно, колкото си мислите. Ново изследване демонстрира, че хората са в положение да разпознаят изкуствено генерирана тирада единствено в 73% от случаите на британски и мандарин.

Проучването е осъществено от Кимбърли Май от Университетския лицей в Лондон и нейните сътрудници, които са употребявали логаритъм за превръщане на текст в тирада, подготвен върху 2 обществено налични набора от данни. Бяха основани 50 deepfake речеви проби на двата езика, с цел да се дефинира дали хората могат да разпознаят фалшификатите от същинските гласове.

В проучването са взели участие 529 души. Те слушали същинска говорителка, която четяла общи фрази на британски или мандарин, преплетени с изречения, генерирани от изкуствен интелект.

Първата група слушала 20 гласови проби на родния си език и трябвало да реши дали са същински или подправени. Участниците избрали верния вид в 73% от случаите.

Втората група изслушала 20 случайно определени двойки аудиозаписи – един, произнесен от човек, и един, произнесен от изкуствен интелект. В този тест хората успяваха да открият deepfake-a в 85 % от случаите, макар че съществуването на два точни записа за съпоставяне сигурно щеше да улесни това предизвикателство.

Deepfake-oвете постоянно се характеризират с предупредителни знаци, като скована, монотонна тирада или неестествено заекване, които ги дефинират като изкуствени. Данните за точността обаче се усилиха леко откакто участниците бяха подготвени по какъв начин да разпознават характерностите на генерираната от изкуствен интелект тирада.

Важно е да се означи, че хората в изследването са знаели, че слушат за глас, генериран от изкуствен интелект – човек, който не чака подобен, евентуално ще се затрудни да разпознае deepfake. Има случаи на измамници, които употребяват клонирани гласове, с цел да се обаждат на хора и да ги заблуждават, че беседват със семейство, другари или длъжностни лица и предават поверителни данни. Съществува и опасението, че някои системи за сигурност употребяват гласова идентификация.

Кимбърли Май също по този начин съобщи, че логаритмите, употребявани за основаване на deepfake-овете в изследването са относително остарели, тъй че тези, генерирани с по-нови и усъвършенствани технологии ще звучат по-близко до същинските и ще бъдат по-трудни за различаване.

През януари откриватели от Microsoft оповестиха нов инструмент с изкуствен интелект, наименуван Vall-E, който може тъкмо да имитира човешки глас единствено от 3-секундна аудио извадка.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР