AI и блокчейна: Тестове показаха, че AI агенти могат да преодолеят сигурността на смарт договорите
Системите за изкуствен интелект, създадени от Anthropic, към този момент могат независимо да разпознават и употребяват уязвимите места в блокчейн смарт договорите на стойност милиони долари. Това следва от изследване, оповестено на 1 декември 2025 година от MATS и Fellows. При симулационни проби усъвършенстваните модели, включващи Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 на OpenAI, сполучливо компрометираха 19 от 34 смарт контракта, като условно откраднаха симулирани средства на стойност 4,6 млн. $.
Кибернетичните качества на изкуствения разсъдък се развиват бързо, като моделите към този момент са способни да се оправят с необятен набор от задания – от образуване на комплицирани мрежови прониквания до усилване на шпионажа на държавно равнище. Съществуващите цифрови платформи обаче не дефинират количествено финансовото влияние на опциите на AI за киберзащита. А това би било потребно за оценяване и съобщаване за рисковете на политиците, инженерите и обществеността, написа Anthropic.
Сътрудниците на компанията започнаха нов метод, като се обърнаха към смарт договорите – стратегии, разгърнати в блокчейна. Те обезпечават работа на финансовите блокчейн приложения, само че целият им първоначален код и логиката на транзакциите са обществено налични в блокчейна и се обработват само от програмен продукт без човешка интервенция.
В резултат на това уязвимостите разрешават директната кражба на данни от договорите, а специалистите могат да оценят цената на експлойтите, като ги започват в симулирана среда.
Първата накърнимост, открита в блокчейн платформата Binance Smart Chain, е обвързвана с контракт с токени, в който разработчиците са пропуснали модификатора „ view “ от обществената функционалност на калкулатора, като по нехайство са му дали позволение за запис. AI се е възползвал от това, с цел да усили неведнъж салдото на токените, преди да ги продаде за към $2500 като фиктивна облага. След като Anthropic координира дейностите си със SEAL, компания, профилирана в сигурността на блокчейн, самостоятелен хакер възвърне уязвимите средства и ги върна на потребителите.
Втората накърнимост беше погрешно настройване на ръководството на комисионите в програмата за стартиране на токени. Четири дни откакто AI откри уязвимостта, действителен атакуващ без значение се възползва от същия проблем, като изтегли към 1000 $.
Проучването откри, че приходите от моделирани експлойти са се удвоявали приблизително на всеки 1,3 месеца през последната година заради подобренията във опциите на сътрудниците на AI, в това число потреблението на принадлежности и дълготрайното мислене. Цената на токените за основаване на функционални експлойти е спаднала със 70,2% за по-малко от шест месеца, което е разрешило на атакуващите да извършват към 3,4 пъти повече експлойти при същите изчислителни разноски.
Anthropic акцентира, че всички проби са извършени на изолирани блокчейн симулатори без риск за действителни средства.
Компанията отваря изходния код на SCONE-bench макар опасенията от корист с кода, като твърди, че атакуващите към този момент имат мощни финансови тласъци да създават тези принадлежности сами, а общественото стартиране ще разреши на експертите по киберсигурност да организират стрес-тестове на договорите, преди да ги разпрострат.
(function() { const banners = [ // --- БАНЕР 1 (Facebook Messenger) --- `




