Защо водещи експерти съветват да не се дава твърде много

...
Защо водещи експерти съветват да не се дава твърде много
Коментари Харесай

Може ли изкуственият интелект да уволни шефа или да изпразни сметките на компанията?

Защо водещи специалисти поучават да не се дава прекалено много власт на логаритмите.

Изкуственият разсъдък, който се трансформира в незаместим асистент в бизнеса, от ден на ден се възприема като евентуален източник на вътрешни закани. Според Уенди Уитмор, началник на отдела за разбор на сигурността в Palo Alto Networks, през 2026 година точно самостоятелните AI сътрудници могат да се окажат най-голямата опасност за фирмите от вътрешната страна.

Рязкото повишаване на броя на тези сътрудници в корпоративната среда тормози специалистите. Анализаторите на Gartner предвиждат, че до края на 2026 година профилираните системи с изкуствен интелект ще обработват 40% от корпоративните приложения. През 2025 година тази цифра не доближи даже 5%. Подобна динамичност, от една страна, спомага за частичното компенсиране на дефицита на фрагменти в региона на осведомителната сигурност, само че въпреки това, основава нови рискови вектори.

AI сътрудниците форсират обработката на логовете, откриването на заканите и отстраняването на уязвимостите и разрешават на анализаторите да се съсредоточат върху стратегическите задания. Но автоматизацията оттатък контрола е обвързвана с цената на това, че системите, предопределени за отбрана, могат сами да станат уязвими. Особено в случай че им се дават необятни права на достъп, което води до резултата на „ суперпотребителя “ – когато на сътрудника се дава опция да управлява сериозни запаси без знанието или присъединяване на експерти по сигурността.

Уитмор акцентира смисъла на свеждането до най-малко на правата за достъп на AI – следвайки същите правила, които се ползват за елементарните чиновници. Проблемът се усложнява от обстоятелството, че обособените компании към този момент тестват сюжети, при които ИИ утвърждава финансовите транзакции и подписва документи вместо ръководителите.

Макар че сходни технологии усъвършенстват ръководството, те основават и опасности от непозволено държание на чиновниците. Достатъчна е една сполучлива офанзива, да вземем за пример посредством въвеждане на злонамерени подмятания или потребление на уязвимости, с цел да стартира AI да работи в интерес на нападателите – да утвърждава преводи, да изтрива аварийни копия или да събира чувствителни данни.

Опасността от сходни сюжети към този момент е доказана от практиката. През 2025 година анализаторите на Palo Alto Networks записаха случаи, в които киберпрестъпници са употребявали AI за автоматизиране на офанзивите и генериране на нови хакерски техники. В една такава акция, наречена „ Anthropic attack “ (антропична атака), китайска група употребява AI инструмента Claude Code, с цел да събере информация от редица организации.

Нападателите започнаха интензивно да се насочват към езиковите модели в корпоративните системи, заобикаляйки нормалните стъпки на офанзивата, като да вземем за пример приемането на надзор над контролер на домейн. Това допуска, че AI може освен да ускори офанзивата, само че и да промени напълно нейното естество.

Според Уитмор внедряването на AI припомня на миграцията към облака, почнала преди две десетилетия. Тогава най-големите нарушавания на сигурността на данните не се дължаха на самата технология, а на неприятната настройка и незадоволителната отбрана. Ситуацията е сходна и при AI. Докато създаването на нови модели изпреварва развиването, ограниченията за сигурност изостават.

С възходящата самостоятелност на AI сътрудниците най-важната задача е да се вкарат съществени правила: ограничение на пълномощията, следене на дейностите и навреме разкриване на аномалии. Без тях AI може да се трансформира от инструмент за отбрана в пълновръстен цифров инсайдер.

(function() { const banners = [ // --- БАНЕР 1 (Facebook Messenger) --- `
Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР