Дийп фейк с Денков обикаля нета и събира лични данни frognews.bg
Видеото съставлява по този начин наречения дийп фалшив. В него благодарение на изкуствен интелект се имитира гласът на Денков, който дава обещание на българския народ стотици левове поради нов план на “Лукойл ”. Видеото наподобява като послание към нацията и цели да събере непозволено персонални данни на потребителите като причина за присъединяване в капиталова скица.
Дийпфековете крепко шетат из ФБ и няма мощ, която може да ги спре. Това е спонсорирано наличие
— Vango1?? (@vangoooo1)
“Министър-председателят в никакъв случай не е призовавал никого да дава свои персонални данни по никакъв мотив. Предупреждаваме жителите по никакъв мотив да не дават персоналните си данни в обществените мрежи, както и да алармират на ГДБОП при подозрения за киберпрестъпления на имейл [email protected] или на телефон 0885 525 545 “, показват още от пресслужбата на кабинета.
Дийпфейк (от британски: deepfake – от думите „ бездънен “ и “фалшив “) или дълбока имитация е технология, която употребява изкуствен интелект, с цел да фалшифицира във видеоклип или аудиозапис изявления на разнообразни хора. Макар че основаването на подправено медийно наличие не е ново събитие, дълбоката имитация се употребява за манипулиране или генериране на образно наличие, нерядко целящо машинация, илюзия, или друга користна цел.
Подобни имитации обикалят постоянно интернет за да заблуждават потребителите, главно в Съединени американски щати.
Дийпфековете крепко шетат из ФБ и няма мощ, която може да ги спре. Това е спонсорирано наличие
— Vango1?? (@vangoooo1)
“Министър-председателят в никакъв случай не е призовавал никого да дава свои персонални данни по никакъв мотив. Предупреждаваме жителите по никакъв мотив да не дават персоналните си данни в обществените мрежи, както и да алармират на ГДБОП при подозрения за киберпрестъпления на имейл [email protected] или на телефон 0885 525 545 “, показват още от пресслужбата на кабинета.
Дийпфейк (от британски: deepfake – от думите „ бездънен “ и “фалшив “) или дълбока имитация е технология, която употребява изкуствен интелект, с цел да фалшифицира във видеоклип или аудиозапис изявления на разнообразни хора. Макар че основаването на подправено медийно наличие не е ново събитие, дълбоката имитация се употребява за манипулиране или генериране на образно наличие, нерядко целящо машинация, илюзия, или друга користна цел.
Подобни имитации обикалят постоянно интернет за да заблуждават потребителите, главно в Съединени американски щати.
Източник: frognews.bg
КОМЕНТАРИ




