Интервю | Битката с разпознаването на AI съдържание e напът да бъде загубена
Проф. Стивън Левандовски е изследовател по когнитивни науки в Университета в Бристол, чиито проучвания се концентрират върху пресечната точка сред човешкото мислене и архитектурата на онлайн осведомителните технологии, както и върху последствията за демокрацията. Той изследва по какъв начин обществените мрежи и техните логаритми въздействат върху разпространяването на дезинформация, тайни теории и публичното приемане на научни доказателства, в това число за имунизации и климатични промени.
Той е притежател на редица влиятелни оценки – измежду тях премия за извънреден откривател от Австралийския теоретичен съвет, стипендия Wolfson от Кралското общество и премия „ Хумболт “. Левандовски е определен за член на Академията на обществените науки във Англия, на Асоциацията по психическа просвета и на немската национална академия на науките „ Леополдина “ (2022). Признат е като един от най-цитираните учени в света за 2022 година, 2023 година и 2024 година от Clarivate.
С проф. Левандовски си приказваме за изкуствения разсъдък, политическите последствия от генеративния AI, както и опциите, които произтичат от него, резултата му върху демокрацията и човешкото схващане, за дезинформацията и за смисъла на плана SOLARIS, в който „ Бранд Медия България “ е сътрудник.
Проф. Левандовски ще бъде измежду участниците във финалната среща на плана SOLARIS в Утрехт през януари 2026 година, където специалисти от цяла Европа ще обсъдят действителните опасности и политическите последствия от генеративния AI.
Проф. Левандовски, през днешния ден онлайн потребителите са изправени пред възходяща маса от AI наличие, както и непроверени изявления от жители в обществените мрежи. Какво в нашата когнитивна настройка ни прави уязвими към дезинформация?
Хората еволюционно са склонни да имат вяра по дифолт на другите. И нормално това е изцяло разумно – съседът няма да ни излъже, когато го питаме в кой ден се събира боклукът. В действителния живот лъжите и измамата в директната връзка сред хората са доста редки. Но тази податливост към доверие ни прави уязвими към манипулатори, които целят да ни убедят в нещо погрешно.
Дори преди дълбоките имитации и AI наличието, някои хора бяха привлечени от тайни теории и недоказани изказвания. Колко огромен риск съставляват те за изборите и публичното доверие?
Има задоволително доказателства, че дезинформацията и тайните теории подкопават публичното доверие, в това число в изборния развой. Например, в навечерието на президентските избори в Съединени американски щати през 2020 година болшинството както от републиканците, по този начин и от демократите имаха вяра, че Байдън е спечелил почтено. Едва след масираната акция на дезинформация от страна на Тръмп и неговите поддръжници републиканците изгубиха доверие в резултатите – до степен, че една четвърт от тях към този момент не подкрепяха мирния преход на властта в края на 2020 година
Възможно ли е някои консуматори неумишлено да подкрепят разпространяването на подправено наличие?
Да. Повечето хора не биха споделили нещо, което знаят, че е погрешно – все пак забележителен дял (около 25%) умишлено способстват за разпространяването на дезинформация. Този развой се назовава „ участническа агитация “.
Как съгласно вас огромните езикови модели като ChatGPT трансформират средата на онлайн дезинформацията – утежняват ли казуса или могат да бъдат част от решението?
И двете. Те могат да бъдат част от решението, тъй като се оправят доста добре с смяната на убежденията на хората по отношение на тайни теории и дезинформация, когато водят диалог с тях. Но ChatGPT и сходни системи могат също да бъдат употребявани за генериране на дезинформация, в това число персонализирани известия, които експлоатират самостоятелните недостатъци на хората.
Като се има поради, че AI може да генерира безапелационен текст, кои когнитивни уязвимости ви тревожат най-вече, когато хората се затрудняват да разграничат човешка от машинно генерирана информация?
Смятам, че тази борба е изгубена или е напът да бъде изгубена. AI текстовете към този момент са съвсем неразличими от човешките, а в близко бъдеще няма да има никакъв метод да ги разграничаваме.
Прави ли Европа задоволително, с цел да ограничи дезинформацията, или към момента реагираме прекомерно постепенно?
За разлика от Съединени американски щати, Европа най-малко подхваща някакви дейности. Но това не е задоволително. Трябва да реализираме същински дигитален суверенитет, тъй че „ осведомителната диета “ на 450 млн. европейци да не бъде оформяна от шепа плутократи в Силициевата котловина.
Какви елементарни ограничения могат да подхващат платформите още в този момент, с цел да понижат видимостта на подправената информация?
Те чудесно знаят какво би трябвало да създадат – Фейсбук го показва в интервала преди изборите през 2020 година Но сега липсва политическа воля за това. Напротив – доста платформи намерено стопираха практиките по фактологична инспекция, което още един път демонстрира какъв брой значимо е Европа да реализира дигитален суверенитет.
Критичното мислене постоянно се показва като основна отбрана против дезинформация, само че то се развива постепенно и неравномерно. Какви на практика стъпки би трябвало да подхващат институциите – учебни заведения, медии, държавни управления – с цел да го подсилят в мащаб? И каква отговорност носят държавните управления в противодействието на онлайн операцията?
Критичното мислене е потребна идея и, несъмнено, би трябвало да се преподава още от ранна възраст. Но това няма да реши казуса единствено по себе си. Проблемът е систематичен и е надълбоко затвърден в бизнес модела на платформите (икономиката на вниманието) и логаритмите, които държат хората ангажирани. Затова и решението би трябвало да бъде редовно: би трябвало да сложим логаритмите под публичен надзор и отчетност, което може да бъде реализирано само посредством дигитален суверенитет.
Проектът SOLARIS, финансиран по „ Хоризонт Европа “, цели да ускори устойчивостта на обществото против онлайн операция. Какво го прави стратегически значим в този миг?
Най-важният аспект съгласно мен е методът на „ взаимно основаване “ – включването на обществото в самия развой на проучване. Обществото играе основна роля и би трябвало да подсигуряваме, че хората са включени и представлявани.
Коя е най-неотложната смяна в политиките, нужна, с цел да стане Европа по-малко уязвима към цифрова операция през идващото десетилетие?
Има доста нужни стъпки – аз съм водещ създател на отчет на Европейски Съюз, който би трябвало да бъде оповестен в края на 2025 година (или януари 2026 г.) и който предлага редица ограничения.
За SOLARIS
Изследователският проект SOLARIS, финансиран по стратегия „ Хоризонт Европа “, има за цел да адресира провокациите, подбудени от генеративните AI технологии, като предизвиква интернационалното съдействие и създава рамки за ръководство на AI, демократична резистентност и сигурност.
За повече информация по отношение на плана SOLARIS и опциите за присъединяване, посетете уебсайта на плана.
Този план е финансиран от Европейския съюз. Въпреки това, изразените възгледи и отзиви са единствено на автора(ите) и не отразяват безусловно тези на Европейския съюз или Европейската изпълнителна организация за научни проучвания (REA). Нито Европейският съюз, нито предоставящият орган могат да носят отговорност за тях.
AI ChatGPT SOLARIS дезинформация дийпфейк неестествен интелект
Той е притежател на редица влиятелни оценки – измежду тях премия за извънреден откривател от Австралийския теоретичен съвет, стипендия Wolfson от Кралското общество и премия „ Хумболт “. Левандовски е определен за член на Академията на обществените науки във Англия, на Асоциацията по психическа просвета и на немската национална академия на науките „ Леополдина “ (2022). Признат е като един от най-цитираните учени в света за 2022 година, 2023 година и 2024 година от Clarivate.
С проф. Левандовски си приказваме за изкуствения разсъдък, политическите последствия от генеративния AI, както и опциите, които произтичат от него, резултата му върху демокрацията и човешкото схващане, за дезинформацията и за смисъла на плана SOLARIS, в който „ Бранд Медия България “ е сътрудник.
Проф. Левандовски ще бъде измежду участниците във финалната среща на плана SOLARIS в Утрехт през януари 2026 година, където специалисти от цяла Европа ще обсъдят действителните опасности и политическите последствия от генеративния AI.
Проф. Левандовски, през днешния ден онлайн потребителите са изправени пред възходяща маса от AI наличие, както и непроверени изявления от жители в обществените мрежи. Какво в нашата когнитивна настройка ни прави уязвими към дезинформация?
Хората еволюционно са склонни да имат вяра по дифолт на другите. И нормално това е изцяло разумно – съседът няма да ни излъже, когато го питаме в кой ден се събира боклукът. В действителния живот лъжите и измамата в директната връзка сред хората са доста редки. Но тази податливост към доверие ни прави уязвими към манипулатори, които целят да ни убедят в нещо погрешно.
Дори преди дълбоките имитации и AI наличието, някои хора бяха привлечени от тайни теории и недоказани изказвания. Колко огромен риск съставляват те за изборите и публичното доверие?
Има задоволително доказателства, че дезинформацията и тайните теории подкопават публичното доверие, в това число в изборния развой. Например, в навечерието на президентските избори в Съединени американски щати през 2020 година болшинството както от републиканците, по този начин и от демократите имаха вяра, че Байдън е спечелил почтено. Едва след масираната акция на дезинформация от страна на Тръмп и неговите поддръжници републиканците изгубиха доверие в резултатите – до степен, че една четвърт от тях към този момент не подкрепяха мирния преход на властта в края на 2020 година
Възможно ли е някои консуматори неумишлено да подкрепят разпространяването на подправено наличие?
Да. Повечето хора не биха споделили нещо, което знаят, че е погрешно – все пак забележителен дял (около 25%) умишлено способстват за разпространяването на дезинформация. Този развой се назовава „ участническа агитация “.
Как съгласно вас огромните езикови модели като ChatGPT трансформират средата на онлайн дезинформацията – утежняват ли казуса или могат да бъдат част от решението?
И двете. Те могат да бъдат част от решението, тъй като се оправят доста добре с смяната на убежденията на хората по отношение на тайни теории и дезинформация, когато водят диалог с тях. Но ChatGPT и сходни системи могат също да бъдат употребявани за генериране на дезинформация, в това число персонализирани известия, които експлоатират самостоятелните недостатъци на хората.
Като се има поради, че AI може да генерира безапелационен текст, кои когнитивни уязвимости ви тревожат най-вече, когато хората се затрудняват да разграничат човешка от машинно генерирана информация?
Смятам, че тази борба е изгубена или е напът да бъде изгубена. AI текстовете към този момент са съвсем неразличими от човешките, а в близко бъдеще няма да има никакъв метод да ги разграничаваме.
Прави ли Европа задоволително, с цел да ограничи дезинформацията, или към момента реагираме прекомерно постепенно?
За разлика от Съединени американски щати, Европа най-малко подхваща някакви дейности. Но това не е задоволително. Трябва да реализираме същински дигитален суверенитет, тъй че „ осведомителната диета “ на 450 млн. европейци да не бъде оформяна от шепа плутократи в Силициевата котловина.
Какви елементарни ограничения могат да подхващат платформите още в този момент, с цел да понижат видимостта на подправената информация?
Те чудесно знаят какво би трябвало да създадат – Фейсбук го показва в интервала преди изборите през 2020 година Но сега липсва политическа воля за това. Напротив – доста платформи намерено стопираха практиките по фактологична инспекция, което още един път демонстрира какъв брой значимо е Европа да реализира дигитален суверенитет.
Критичното мислене постоянно се показва като основна отбрана против дезинформация, само че то се развива постепенно и неравномерно. Какви на практика стъпки би трябвало да подхващат институциите – учебни заведения, медии, държавни управления – с цел да го подсилят в мащаб? И каква отговорност носят държавните управления в противодействието на онлайн операцията?
Критичното мислене е потребна идея и, несъмнено, би трябвало да се преподава още от ранна възраст. Но това няма да реши казуса единствено по себе си. Проблемът е систематичен и е надълбоко затвърден в бизнес модела на платформите (икономиката на вниманието) и логаритмите, които държат хората ангажирани. Затова и решението би трябвало да бъде редовно: би трябвало да сложим логаритмите под публичен надзор и отчетност, което може да бъде реализирано само посредством дигитален суверенитет.
Проектът SOLARIS, финансиран по „ Хоризонт Европа “, цели да ускори устойчивостта на обществото против онлайн операция. Какво го прави стратегически значим в този миг?
Най-важният аспект съгласно мен е методът на „ взаимно основаване “ – включването на обществото в самия развой на проучване. Обществото играе основна роля и би трябвало да подсигуряваме, че хората са включени и представлявани.
Коя е най-неотложната смяна в политиките, нужна, с цел да стане Европа по-малко уязвима към цифрова операция през идващото десетилетие?
Има доста нужни стъпки – аз съм водещ създател на отчет на Европейски Съюз, който би трябвало да бъде оповестен в края на 2025 година (или януари 2026 г.) и който предлага редица ограничения.
За SOLARIS
Изследователският проект SOLARIS, финансиран по стратегия „ Хоризонт Европа “, има за цел да адресира провокациите, подбудени от генеративните AI технологии, като предизвиква интернационалното съдействие и създава рамки за ръководство на AI, демократична резистентност и сигурност.
За повече информация по отношение на плана SOLARIS и опциите за присъединяване, посетете уебсайта на плана.
Този план е финансиран от Европейския съюз. Въпреки това, изразените възгледи и отзиви са единствено на автора(ите) и не отразяват безусловно тези на Европейския съюз или Европейската изпълнителна организация за научни проучвания (REA). Нито Европейският съюз, нито предоставящият орган могат да носят отговорност за тях.
AI ChatGPT SOLARIS дезинформация дийпфейк неестествен интелект
Източник: economic.bg
КОМЕНТАРИ




