2026 година ще бъде краят на истината – фабриките за AI пропаганда ще достигнат пълния си капацитет
Един единствен програмист основава войска от 500 подправени събеседници.
Нов отчет за рисковете от потреблението на изкуствен интелект в осведомителните интервенции демонстрира, че опциите на генеративните модели към този момент разрешават основаването на изцяло автоматизирани заводи за агитация. Ако по-рано специалистите спекулираха с хипотетични сюжети, то в този момент става дума за действително работещи технологии, които могат да се употребяват освен от страните, само че и от дребни екипи и даже обособени хора.
Основната опасност не е обвързвана с огромните комерсиални услуги като ChatGPT или Claude. Тези платформи са лесни за следене, ограничение на честотата на поръчките или изцяло блокиране. Ключът към огромните секрети интервенции се крие в потреблението на местни езикови модели с отворени тегла, които могат да бъдат изтеглени и стартирани на лични местни компютри или местни клъстери. Това понижава разноските, отстрани външния надзор и прави интервенциите на практика невидими.
Изслед ването показва, че сходни системи могат да генерират наличие от името на стотици разнообразни персони с избрани характерности – от политически идеологии до обществени и демографски профили. Автоматизираният модул може устойчиво да поддържа определената роля и да ускорява изразяването на нейните възгледи в продължение на нескончаем разговор. Тези сътрудници са в положение да водят полемики във форумите и обществените мрежи по подобен метод, че множеството консуматори да не ги разграничават от същинските събеседници.
Архитектурата на изцяло самостоятелната система включва генератор на текст, модул за оценка на качеството, контролер за избора и публикуването на постове, краткосрочна памет за поддържане на подтекста, график за издание и оптимизатор, който следи за успеваемостта на наличието и контролира по-нататъшните дейности. Целият развой може да работи без човешка интервенция: операторът задава задачите и разпоредбите, а по-късно системата работи независимо.
Подобни съоръжения към този момент могат да се извършват на най-обикновен общоприет хардуер, без да се постанова да се наемат облачни услуги, което ги прави изключително рискови в ръцете на атакуващите.
За да се разпознават сходни акции, е значимо да се огледа оттатък разбора на обособените изявления или сметки към задачите вериги от взаимоотношения. Сигналите за неестественост могат да се видят в ритъма и последователността на отговорите, в повтарящите се изречения, в синхронните изявления от другите сметки. Друг метод за установяване на атрибуцията е да се наблюдава инфраструктурата: IP адресите, моделите на прокси сървърите, следите от автоматизацията на браузъра.
Самите модели могат да бъдат сменени когато и да е, само че архитектурата на ръководство и мрежовите следи остават. Авторите на изследването акцентират, че регулирането би трябвало да се концентрира върху инструментите за бистрота и одит, а не върху възбраната на самите модели. Малко евентуално е затворените системи да се трансфорат в главно оръжие на нападателите, до момента в който отворените модели към този момент са налични за всички.
На новите закани може да се противодейства единствено посредством създаване на разбори, шерване на метрики и основаване на принадлежности за следене координацията на автоматизираните мрежи.
Експертите чакат, че държавните организации към този момент опитват с сходни технологии. Мащабни интервенции, употребяващи изкуствени персонажи, могат да се появят в общественото пространство още през 2026 година, което ще изисква незабавни решения от страна на отбранителните и политическите институции.




