Обезпокоително е, че създаването на съдържание от AI е на един клик разстояние от всеки
Как еволюираха инструментите за предизвикателство на дезинформация през последните години? За какъв брой огромен теоретичен и софтуерен скок става дума и каква е заплахата той да се окаже неведнъж надхвърлящ рамките на човешкия морал, както се случи с атомната бомба, да вземем за пример?
Благодаря за въпроса. Важно е да се има поради, че дезинформацията не е ново събитие. Ясно е, че цифровите технологии – а напоследък и създаването на системи с изкуствен интелект, способни да трансформират фотоси, видеоклипове и аудиоматериали – бързо трансформират метода, по който се популяризират фалшификатите. Това, което се е трансформирало, е методът, по който се манипулира образното и аудиосъдържанието, което е въпрос освен на механически характерности, само че и на смисъла, който тези промени носят със себе си. За страдание, няколко пъти в историята си сме прекосявали границата на човешкия морал, в това число и много преди атомната бомба – с цел да употребявам още веднъж вашия образец. Но за мен това не е градивният метод за слагане на въпроса за цифровите технологии като цяло и в тази ситуация с дезинформацията в частност.
Бихте ли обяснили какво съставлява GANs технологията – за какво тя е толкоз добре използвана за подправени вести и какво я прави толкоз рискова? А каква е разликата с GPT моделите?
GANs са клас системи с изкуствен интелект, способни да трансформират образно или аудиосъдържание, употребявайки техниката “adversarial ” (съперничество) сред две мрежи, а човек „ печели “ от качественото усъвършенстване на направените промени (б.р. – Generative Adversarial Networks (GANs) са известен клас генериращи модели за надълбоко образование, които постоянно се употребяват за генериране на изображения. Те се състоят от двойка невронни мрежи, наречени дискриминатор и генератор. Задачата на дискриминатора е да разграничи действителните изображения от генерираните (фалшиви), до момента в който мрежата на генератора се пробва да заблуди дискриминатора, като генерира все по-реалистични изображения).
Моделите на GPT са клас „ огромни езикови “ модели, които работят с текст. Отново, доста просто казано, те могат да „ основават “ нов текст въз основа на входни данни, предоставени от потребителя и като употребяват огромната база данни, на която са подготвени. Това са в действителност разнообразни типове модели, само че общото сред тях е, че принадлежат към „ генеративния изкуствен интелект “, което значи, че системата за изкуствен интелект измисля „ ново “ наличие – ново по повод въз основата данни, употребена за образованието ѝ.
Неконтролируемото разпространяване на подправените вести към този момент е голям проблем. Как задълбочаващата се комерсиализация и популяризирането на генеративния изкуствен интелект го подхранват?
Със сигурност го прави, само че не разполагам с цифри, които да дефинират „ до каква степен “ това се случва. Със сигурност е тревожно, че технологиите за основаване на наличие, генерирано от изкуствен интелект, са единствено на един клик разстояние от всеки средностатистически консуматор, на всякаква възраст и с всякакво равнище на цифрова просветеност.
Свидетели сме на доста образци на подкопаване на демокрацията чрез дезинформация. Кои са тези невидими процеси на обществено и самостоятелно равнище, които способстват за тази ерозия?
Задавате въпрос, на който социолозите биха могли да отговорят по-добре от мен. Аз съм мъдрец на науката и технологиите и невидимите процеси, които виждам, се отнасят до „ системата “ или „ мрежата “, към която принадлежат хората, институциите, платформите на обществените медии. Или с други думи, съществуват голям брой пътища както на публично, по този начин и на самостоятелно равнище, които могат да обяснят появяването на сходни епизоди. Но не можем просто да хвърлим пръст върху GAN или друга генеративна система на AI. Трябва да разберем по-широката мрежа, в която се употребяват тези принадлежности.
Дълбоките имитации, генерирани с изкуствен интелект, размиват визиите ни за това кое е истина и кое небивалица. Как се отразява това върху естествения разсъдък и с какви данни (по образеца на ML) би трябвало да бъде квалифициран той, че да съумее да построи здрави и устойчиви граници?
Моето мнение е, че е ненапълно заблуда, че „ преди “ е имало внезапно разграничаване сред истина и небивалица. Всъщност това е целият смисъл в разбирането на ролята на изобразителното изкуство, фотографията и други Но е правилно, че се запознахме с концепцията, че картините изобразяват нещо същинско, а видеоклиповете може би даже повече, защото прибавят динамичен детайл. Впечатлението ми е, че се нуждаем от повече сериозно мислене и настройка за схващане на нюансите – рентгеновата фотография на счупената ми ръка също не е „ същинска “ картина на счупването. Здравите граници сред сферата на истината и измислицата – в случай че въобще могат да бъдат възобновени – са артикул на способността ни да преценяме.
Джинът към този момент е излязъл от бутилката и технологията ще става все по-добра – какви контраинструменти се развиват и задоволително ефикасни ли са те?
Въпросът е подложен с право. Едва в този момент започваме да създаваме принадлежности, които да противодействат на бързото разпространяване на дезинформация. Някои принадлежности са в областта на ръководството и регулирането, други – в областта на образованието (както в учебно заведение, по този начин и в семейството). Едно от огромните провокации, които виждам, е, че поколението, което би трябвало да създаде такива принадлежности, е това, което е по-малко осведомено с потреблението им. Сякаш би трябвало да контролираме и да се образоваме за потреблението на нещо, което самите ние не владеем. Но би трябвало да го създадем, тъй като към този момент виждаме, че не вървим в вярната посока и е належащо повече.
Има ли монетата противоположна страна – по какъв начин този вид технологии (GANs и GPT) могат да бъдат употребявани за положително?
Радвам се, че задавате този въпрос, тъй като общото ми отношение към (цифровите) технологии е, че те сами по себе си не са нито неприятни, нито положителни. Иска ми се всички нововъведения да се проектират с положителни планове и цели. Използването на наличието, генерирано от изкуствен интелект, за положителни цели е изследвано за основаване на просветително наличие или във филмовата промишленост. GPT са по-противоречиви, само че се оповестява и за добра приложимост, да вземем за пример за подкрепяне на потребителите при писане – само че всичко това допуска фундаментални въпроси за задачата, за насоките за потребление и за грамотността, които съгласно мен не са категорично сложени.
Ръководите интернационалния проучвателен план SOLARIS, в който " Бранд Медиа България " също е сътрудник – бихте ли ни разказали за неговите цели? Как се чака SOLARIS да способства за решаването на задълбочаващите се проблеми с дълбоките имитации?
Благодаря за интереса към плана. Иска ми се един план да може да способства за решения! Но по-скромно, ние предлагаме да разбираме генеративния AI (от който са част GAN или GPT) като част от мрежа или система, както загатнах доскоро. От позиция на тази мрежа желаеме да разберем кои детайли в нея ни карат да имаме вяра в аудио-визуално наличие, което е генерирано от AI. Нашата догадка е, че качеството на видеоклиповете или аудиоматериалите единствено отчасти изяснява това. Ще проверим тази догадка емпирично. Също по този начин ще симулираме разпространяването на дълбоки имитации и ще следим реакцията на институциите в такива случаи. И най-после, ще опитвам със взаимното основаване на наличие, генерирано от изкуствен интелект, за положителни цели. Въз основа на нашите констатации ще изготвим рекомендации за политиката.
Какво демонстрират изследванията ви до момента – за цифровата просветеност на потребителите и за степента на навлизане на GANs инструментите в обществото?
Все още не сме стигнали до такава степен. В първия ни случай на приложимост в действителност ще интервюираме потребителите и се надяваме да получим повече информация за тяхната цифрова просветеност и по този начин вероятно да установим връзка сред нея и доверието в наличие, генерирано от изкуствен интелект.
На 26 октомври ще се включите в конференцията AI ‘N CYBER 2023 – какво е смисъла на такива интернационалните конгреси и за какво е значимо тематиката за дезинформацията и технологиите да бъде разисквана от колкото се може по-широк кръг специалисти от разнообразни страни?
Развълнуван съм, че ще мога да вземам участие в това събитие. То ще бъде отлична опция да представим нашия метод и констатации, само че също по този начин и да се срещнем в детайли с многочислените начинания на равнище Европейски Съюз във връзка с дезинформацията. Налице е незабавна нужда от сливане на напъните и шерване на познания и най-хубави практики. Благодарим ви за тази опция.
Благодаря за въпроса. Важно е да се има поради, че дезинформацията не е ново събитие. Ясно е, че цифровите технологии – а напоследък и създаването на системи с изкуствен интелект, способни да трансформират фотоси, видеоклипове и аудиоматериали – бързо трансформират метода, по който се популяризират фалшификатите. Това, което се е трансформирало, е методът, по който се манипулира образното и аудиосъдържанието, което е въпрос освен на механически характерности, само че и на смисъла, който тези промени носят със себе си. За страдание, няколко пъти в историята си сме прекосявали границата на човешкия морал, в това число и много преди атомната бомба – с цел да употребявам още веднъж вашия образец. Но за мен това не е градивният метод за слагане на въпроса за цифровите технологии като цяло и в тази ситуация с дезинформацията в частност.
Бихте ли обяснили какво съставлява GANs технологията – за какво тя е толкоз добре използвана за подправени вести и какво я прави толкоз рискова? А каква е разликата с GPT моделите?
GANs са клас системи с изкуствен интелект, способни да трансформират образно или аудиосъдържание, употребявайки техниката “adversarial ” (съперничество) сред две мрежи, а човек „ печели “ от качественото усъвършенстване на направените промени (б.р. – Generative Adversarial Networks (GANs) са известен клас генериращи модели за надълбоко образование, които постоянно се употребяват за генериране на изображения. Те се състоят от двойка невронни мрежи, наречени дискриминатор и генератор. Задачата на дискриминатора е да разграничи действителните изображения от генерираните (фалшиви), до момента в който мрежата на генератора се пробва да заблуди дискриминатора, като генерира все по-реалистични изображения).
Моделите на GPT са клас „ огромни езикови “ модели, които работят с текст. Отново, доста просто казано, те могат да „ основават “ нов текст въз основа на входни данни, предоставени от потребителя и като употребяват огромната база данни, на която са подготвени. Това са в действителност разнообразни типове модели, само че общото сред тях е, че принадлежат към „ генеративния изкуствен интелект “, което значи, че системата за изкуствен интелект измисля „ ново “ наличие – ново по повод въз основата данни, употребена за образованието ѝ.
Неконтролируемото разпространяване на подправените вести към този момент е голям проблем. Как задълбочаващата се комерсиализация и популяризирането на генеративния изкуствен интелект го подхранват?
Със сигурност го прави, само че не разполагам с цифри, които да дефинират „ до каква степен “ това се случва. Със сигурност е тревожно, че технологиите за основаване на наличие, генерирано от изкуствен интелект, са единствено на един клик разстояние от всеки средностатистически консуматор, на всякаква възраст и с всякакво равнище на цифрова просветеност.
Свидетели сме на доста образци на подкопаване на демокрацията чрез дезинформация. Кои са тези невидими процеси на обществено и самостоятелно равнище, които способстват за тази ерозия?
Задавате въпрос, на който социолозите биха могли да отговорят по-добре от мен. Аз съм мъдрец на науката и технологиите и невидимите процеси, които виждам, се отнасят до „ системата “ или „ мрежата “, към която принадлежат хората, институциите, платформите на обществените медии. Или с други думи, съществуват голям брой пътища както на публично, по този начин и на самостоятелно равнище, които могат да обяснят появяването на сходни епизоди. Но не можем просто да хвърлим пръст върху GAN или друга генеративна система на AI. Трябва да разберем по-широката мрежа, в която се употребяват тези принадлежности.
Дълбоките имитации, генерирани с изкуствен интелект, размиват визиите ни за това кое е истина и кое небивалица. Как се отразява това върху естествения разсъдък и с какви данни (по образеца на ML) би трябвало да бъде квалифициран той, че да съумее да построи здрави и устойчиви граници?
Моето мнение е, че е ненапълно заблуда, че „ преди “ е имало внезапно разграничаване сред истина и небивалица. Всъщност това е целият смисъл в разбирането на ролята на изобразителното изкуство, фотографията и други Но е правилно, че се запознахме с концепцията, че картините изобразяват нещо същинско, а видеоклиповете може би даже повече, защото прибавят динамичен детайл. Впечатлението ми е, че се нуждаем от повече сериозно мислене и настройка за схващане на нюансите – рентгеновата фотография на счупената ми ръка също не е „ същинска “ картина на счупването. Здравите граници сред сферата на истината и измислицата – в случай че въобще могат да бъдат възобновени – са артикул на способността ни да преценяме.
Джинът към този момент е излязъл от бутилката и технологията ще става все по-добра – какви контраинструменти се развиват и задоволително ефикасни ли са те?
Въпросът е подложен с право. Едва в този момент започваме да създаваме принадлежности, които да противодействат на бързото разпространяване на дезинформация. Някои принадлежности са в областта на ръководството и регулирането, други – в областта на образованието (както в учебно заведение, по този начин и в семейството). Едно от огромните провокации, които виждам, е, че поколението, което би трябвало да създаде такива принадлежности, е това, което е по-малко осведомено с потреблението им. Сякаш би трябвало да контролираме и да се образоваме за потреблението на нещо, което самите ние не владеем. Но би трябвало да го създадем, тъй като към този момент виждаме, че не вървим в вярната посока и е належащо повече.
Има ли монетата противоположна страна – по какъв начин този вид технологии (GANs и GPT) могат да бъдат употребявани за положително?
Радвам се, че задавате този въпрос, тъй като общото ми отношение към (цифровите) технологии е, че те сами по себе си не са нито неприятни, нито положителни. Иска ми се всички нововъведения да се проектират с положителни планове и цели. Използването на наличието, генерирано от изкуствен интелект, за положителни цели е изследвано за основаване на просветително наличие или във филмовата промишленост. GPT са по-противоречиви, само че се оповестява и за добра приложимост, да вземем за пример за подкрепяне на потребителите при писане – само че всичко това допуска фундаментални въпроси за задачата, за насоките за потребление и за грамотността, които съгласно мен не са категорично сложени.
Ръководите интернационалния проучвателен план SOLARIS, в който " Бранд Медиа България " също е сътрудник – бихте ли ни разказали за неговите цели? Как се чака SOLARIS да способства за решаването на задълбочаващите се проблеми с дълбоките имитации?
Благодаря за интереса към плана. Иска ми се един план да може да способства за решения! Но по-скромно, ние предлагаме да разбираме генеративния AI (от който са част GAN или GPT) като част от мрежа или система, както загатнах доскоро. От позиция на тази мрежа желаеме да разберем кои детайли в нея ни карат да имаме вяра в аудио-визуално наличие, което е генерирано от AI. Нашата догадка е, че качеството на видеоклиповете или аудиоматериалите единствено отчасти изяснява това. Ще проверим тази догадка емпирично. Също по този начин ще симулираме разпространяването на дълбоки имитации и ще следим реакцията на институциите в такива случаи. И най-после, ще опитвам със взаимното основаване на наличие, генерирано от изкуствен интелект, за положителни цели. Въз основа на нашите констатации ще изготвим рекомендации за политиката.
Какво демонстрират изследванията ви до момента – за цифровата просветеност на потребителите и за степента на навлизане на GANs инструментите в обществото?
Все още не сме стигнали до такава степен. В първия ни случай на приложимост в действителност ще интервюираме потребителите и се надяваме да получим повече информация за тяхната цифрова просветеност и по този начин вероятно да установим връзка сред нея и доверието в наличие, генерирано от изкуствен интелект.
На 26 октомври ще се включите в конференцията AI ‘N CYBER 2023 – какво е смисъла на такива интернационалните конгреси и за какво е значимо тематиката за дезинформацията и технологиите да бъде разисквана от колкото се може по-широк кръг специалисти от разнообразни страни?
Развълнуван съм, че ще мога да вземам участие в това събитие. То ще бъде отлична опция да представим нашия метод и констатации, само че също по този начин и да се срещнем в детайли с многочислените начинания на равнище Европейски Съюз във връзка с дезинформацията. Налице е незабавна нужда от сливане на напъните и шерване на познания и най-хубави практики. Благодарим ви за тази опция.
Източник: economic.bg
КОМЕНТАРИ




