Времето изтича: Ще можем ли в бъдеще да различаваме фалшивите видеа и снимки?
Сподели
С повече от 4000 споделяния, 20 000 коментара и 100 000 реакции във Фейсбук, фотографията на старата жена, седнала зад домашно приготвената си торта за 122-я рожден ден, стана едно от огромните събития в обществените мрежи от последните дни.
„ Започнах да украсявам торти на петгодишна възраст “, гласи надписът, съпровождащ фотографията, „ и нямам самообладание да продължа моето странствуване в сладкарството. “
Изображението на дамата е потвърдено подправено. Едно от нещата, които я издават, е свещ върху тортата, която като че ли се носи във въздуха, написа в своя публикация английският The Guardian.
Към момента можем даже и с просто око да отличим един фалшификат (deepfake), само че генеративният изкуствен интелект става все по-добър и забележимите белези за разграничаване на достоверни от манипулирани облици от ден на ден ще изчезват и ще бъдат заличавани.
Така се стига до конкуренция с времето и до въпроса: способни ли сме да разработим нови способи за различаване на имитации, преди самите те да станат неразличими от действителността?
„ Времето ни изтича и скоро няма да можем да разграничаваме операциите с просто око “, споделя Майк Спиърс, представител на компания, занимаваща се с изкуствен интелект. Спиърс управлява работата на компанията по противодействието на дезинформацията.
„ Моделите се развиват със скорост и движение, които са невероятни от техническа позиция и това е много обезпокоително “, добавя той.
„ Има всевъзможни „ ръчни “ техники за различаване на подправени изображения – от неверно изписани думи до неестествено гладка или набръчкана кожа или замъглени места на облика. Днес към момента елементарно можем да разпознаем фалшификат най-много по придвижването на очите, в случай че е видео или по ръцете. Но даже и през днешния ден това лишава доста време. А времето изтича – моделите стават все по-добри и по-добри “, изяснява Спиърс.
От 2021 година генераторът на изображения на OpenAI – Dall-E, пусна три версии, всяка коренно по-способна от миналата. Индийският съперник Midjourney пусна шест версии за същия интервал, до момента в който безплатният модел Stable Diffusion с отворен код доближи третата си версия.
Тъй като технологията става все по-мощна, тя към този момент е и по-достъпна и по-лесна за потребление. Най-новата версия на Dall-E е вградена в ChatGPT и Bing, до момента в който Гугъл предлага свои лични принадлежности гратис на потребителите.
Технологичните компании към този момент започнаха дейности против огромния поток от принадлежности за генериране на наличие. Така бе основана Коалицията за генезис и достоверност на наличието, в която членуват колоси като BBC, Гугъл, Microsoft и Sony. Организацията сътвори стандарти за отбелязване с „ воден знак “ и етикетиране на генерирани облици, видео и аудио, а през февруари OpenAI разгласи, че ще ги внедри в третата версия на Dall-E.
Това дава опция на генерираните облици да бъдат различими и обозначени като такива. В допълнение Meta стартира да прибавя свои лични етикети към генерирано от AI наличие и предизвести, че ще отстранява изявления, които не са етикетирани.
Тези политики могат да оказват помощ за справяне с някои от най-опасните форми на дезинформация. Но те също могат да основат подправено чувство за сигурност, предизвестява Спайърс.
„ Ако обществеността свикне да вижда генерирани от AI изображения с воден знак, това значи ли, че имплицитно ще се доверява на всички без воден знак? “, пита той.
В същото време слагането на етикети или „ воден знак “ е пожелателна мярка, с която стартъп компании, като да вземем за пример Midjourney, не могат да се съобразят – поради липса на потенциал или поради отвращение. А за планове с „ отворен код “, като Stable Diffusion, е невероятно наложителното потребление на воден знак, защото технологията има опцията да се „ разклонява “, като разрешава на потребителите да основават своя лична.
„ Поставянето на „ воден знак “ не е наложително да има резултата, който бихте желали “, споделя Хенри Паркър, началник в групата за инспекция на обстоятелствата Logically.
Компанията употребява както ръчни, по този начин и автоматизирани способи за инспекция на наличието.
„ Ако кажете на някого, че гледа фалшифицирано видео, преди даже да го е гледал, логиката на психиката на гледането и възприемането на това видео е толкоз мощна, че хората отново ще го загатват, като че ли то пресъздава действителни обстоятелства. Така че единственото нещо, което можем да създадем, е да отговорим на въпроса по какъв начин да понижим времето, през което тези генерирани видеа и облици са в обращение “, разяснява Паркър.
Това значи да има автоматизирани способи, които да засичат и отстраняват изкуствено генерирано наличие, което, в последна сметка, е доста мъчно.
„ От близо пет години работим по този въпрос, като сме съумели да реализираме към 70% акуратност при инспекцията на имитации “, добавя той.
В кратковременен проект главният проблем е в „ конкуренцията във въоръжаването “ сред технологиите за основаване на deepfake и технологиите за откриването им. Дори генераторите на изображения, които нямат зловредни планове, ще желаят да се опитат да надхитрят детекторите, защото крайната цел е да се сътвори една нова и оптимално доближаваща се до действителността фотография.
По този въпрос обаче има и оптимисти.
Бен Колман, основен изпълнителен шеф на започващата компания за разкриване на изображения Reality Defender, счита, че постоянно ще има опция за откриване на фалшификатите, даже и с елементарен инструмент като маркирането на наличие. Според него има механически благоприятни условия, които постоянно ще могат да „ засекат “ неестествено оформяне на даден облик, до това да вземем за пример да се засече дали индивидът, който приказва на видеото в действителност има пулс и дали във вените му тече кръв.
Вече са създадени сходни технологии, които засичат сходни биоиндикатори.
„ Нещата ще продължат да напредват откъм технологиите за подправен, само че действителностите не се трансформират “, заключава Колман. „ Ние имаме вяра, че ще се доближим до един модел, който ще бъде повсеместен “, добавя той.
Технологиите са единствено част от решението за противопоставяне на подправените мултимедии. Ако хората в действителност имат вяра в фотография със 122-годишна жена с торта, която сама тя е изпекла, тогава няма да са нужни генератори на подправени облици, с цел да ги подмамят и да ги накарат да имат вяра и в други неща.
За още забавни вести, изявленията, разбори и мнения харесайте!
С повече от 4000 споделяния, 20 000 коментара и 100 000 реакции във Фейсбук, фотографията на старата жена, седнала зад домашно приготвената си торта за 122-я рожден ден, стана едно от огромните събития в обществените мрежи от последните дни.
„ Започнах да украсявам торти на петгодишна възраст “, гласи надписът, съпровождащ фотографията, „ и нямам самообладание да продължа моето странствуване в сладкарството. “
Изображението на дамата е потвърдено подправено. Едно от нещата, които я издават, е свещ върху тортата, която като че ли се носи във въздуха, написа в своя публикация английският The Guardian.
Към момента можем даже и с просто око да отличим един фалшификат (deepfake), само че генеративният изкуствен интелект става все по-добър и забележимите белези за разграничаване на достоверни от манипулирани облици от ден на ден ще изчезват и ще бъдат заличавани.
Така се стига до конкуренция с времето и до въпроса: способни ли сме да разработим нови способи за различаване на имитации, преди самите те да станат неразличими от действителността?
„ Времето ни изтича и скоро няма да можем да разграничаваме операциите с просто око “, споделя Майк Спиърс, представител на компания, занимаваща се с изкуствен интелект. Спиърс управлява работата на компанията по противодействието на дезинформацията.
„ Моделите се развиват със скорост и движение, които са невероятни от техническа позиция и това е много обезпокоително “, добавя той.
„ Има всевъзможни „ ръчни “ техники за различаване на подправени изображения – от неверно изписани думи до неестествено гладка или набръчкана кожа или замъглени места на облика. Днес към момента елементарно можем да разпознаем фалшификат най-много по придвижването на очите, в случай че е видео или по ръцете. Но даже и през днешния ден това лишава доста време. А времето изтича – моделите стават все по-добри и по-добри “, изяснява Спиърс.
От 2021 година генераторът на изображения на OpenAI – Dall-E, пусна три версии, всяка коренно по-способна от миналата. Индийският съперник Midjourney пусна шест версии за същия интервал, до момента в който безплатният модел Stable Diffusion с отворен код доближи третата си версия.
Тъй като технологията става все по-мощна, тя към този момент е и по-достъпна и по-лесна за потребление. Най-новата версия на Dall-E е вградена в ChatGPT и Bing, до момента в който Гугъл предлага свои лични принадлежности гратис на потребителите.
Технологичните компании към този момент започнаха дейности против огромния поток от принадлежности за генериране на наличие. Така бе основана Коалицията за генезис и достоверност на наличието, в която членуват колоси като BBC, Гугъл, Microsoft и Sony. Организацията сътвори стандарти за отбелязване с „ воден знак “ и етикетиране на генерирани облици, видео и аудио, а през февруари OpenAI разгласи, че ще ги внедри в третата версия на Dall-E.
Това дава опция на генерираните облици да бъдат различими и обозначени като такива. В допълнение Meta стартира да прибавя свои лични етикети към генерирано от AI наличие и предизвести, че ще отстранява изявления, които не са етикетирани.
Тези политики могат да оказват помощ за справяне с някои от най-опасните форми на дезинформация. Но те също могат да основат подправено чувство за сигурност, предизвестява Спайърс.
„ Ако обществеността свикне да вижда генерирани от AI изображения с воден знак, това значи ли, че имплицитно ще се доверява на всички без воден знак? “, пита той.
В същото време слагането на етикети или „ воден знак “ е пожелателна мярка, с която стартъп компании, като да вземем за пример Midjourney, не могат да се съобразят – поради липса на потенциал или поради отвращение. А за планове с „ отворен код “, като Stable Diffusion, е невероятно наложителното потребление на воден знак, защото технологията има опцията да се „ разклонява “, като разрешава на потребителите да основават своя лична.
„ Поставянето на „ воден знак “ не е наложително да има резултата, който бихте желали “, споделя Хенри Паркър, началник в групата за инспекция на обстоятелствата Logically.
Компанията употребява както ръчни, по този начин и автоматизирани способи за инспекция на наличието.
„ Ако кажете на някого, че гледа фалшифицирано видео, преди даже да го е гледал, логиката на психиката на гледането и възприемането на това видео е толкоз мощна, че хората отново ще го загатват, като че ли то пресъздава действителни обстоятелства. Така че единственото нещо, което можем да създадем, е да отговорим на въпроса по какъв начин да понижим времето, през което тези генерирани видеа и облици са в обращение “, разяснява Паркър.
Това значи да има автоматизирани способи, които да засичат и отстраняват изкуствено генерирано наличие, което, в последна сметка, е доста мъчно.
„ От близо пет години работим по този въпрос, като сме съумели да реализираме към 70% акуратност при инспекцията на имитации “, добавя той.
В кратковременен проект главният проблем е в „ конкуренцията във въоръжаването “ сред технологиите за основаване на deepfake и технологиите за откриването им. Дори генераторите на изображения, които нямат зловредни планове, ще желаят да се опитат да надхитрят детекторите, защото крайната цел е да се сътвори една нова и оптимално доближаваща се до действителността фотография.
По този въпрос обаче има и оптимисти.
Бен Колман, основен изпълнителен шеф на започващата компания за разкриване на изображения Reality Defender, счита, че постоянно ще има опция за откриване на фалшификатите, даже и с елементарен инструмент като маркирането на наличие. Според него има механически благоприятни условия, които постоянно ще могат да „ засекат “ неестествено оформяне на даден облик, до това да вземем за пример да се засече дали индивидът, който приказва на видеото в действителност има пулс и дали във вените му тече кръв.
Вече са създадени сходни технологии, които засичат сходни биоиндикатори.
„ Нещата ще продължат да напредват откъм технологиите за подправен, само че действителностите не се трансформират “, заключава Колман. „ Ние имаме вяра, че ще се доближим до един модел, който ще бъде повсеместен “, добавя той.
Технологиите са единствено част от решението за противопоставяне на подправените мултимедии. Ако хората в действителност имат вяра в фотография със 122-годишна жена с торта, която сама тя е изпекла, тогава няма да са нужни генератори на подправени облици, с цел да ги подмамят и да ги накарат да имат вяра и в други неща.
За още забавни вести, изявленията, разбори и мнения харесайте!
Източник: debati.bg
КОМЕНТАРИ




