С голямата сила идва и голяма отговорност“. Популярната реплика може

...
С голямата сила идва и голяма отговорност“. Популярната реплика може
Коментари Харесай

Много специалисти по киберсигурност искат забавяне на внедряването на изкуствения интелект в бизнеса

„ С огромната мощ идва и огромна отговорност “. Популярната имитация може напълно умерено през днешния ден да се употребява за възхода на изкуствения разсъдък. Появили се на пазара преди едвам две-три години за необятно прилагане, огромните езикови модели и AI чатботовете си пробиват път освен в всекидневието на елементарните хора. Но и в офисите на компании и организации от друг мащаб. И въпреки и облекчение и икономисване на запаси, те идват без подозрение със своите опасности. Какво вършат следователно екипите в тези организации, които би трябвало да се оправят с рисковете по начало? Вземайки поради непрекъснатия дефицит на фрагменти в киберзащитната промишленост в световен проект, може да се досетим за мнението на същата тази промишленост.

Според изследване, чиито резултати бяха оповестени тази седмица, близо половината от интервюираните експерти (48%) имат вяра, че е нужно да се направи „ стратегическа пауза “ във внедряването на генеративните AI принадлежности. Това ще помогне на екипите по отбрана да „ калибрират “ в този момент съществуващите си отбрани за настъпването на технологията. Откритието може да се откри в отчета на Cobalt „ 2025: Състояние на сигурността на огромните езикови модели “. Проучването се основава на допитване до над 450 експерти в киберсигурността, защитни водачи и IT мениджъри.

Почти всички запитани (94%) означават забележителен растеж на внедряването на генеративен изкуствен интелект (genAI) в секторите си през последната година. Но повече от една трета (36%) споделят, че това внедряване идва на по-голяма скорост, в сравнение с те могат да се оправят.

Почти половината (46%) считат, че бизнес информацията в тази ситуация е най-застрашена. Притесненията тук са в разнообразни направления. Това включва заплахата от разкриването на информация (46% от анкетираните) и „ натравяне “ на осведомителните модели или кражба (42%). Т.нар. „ осведомително натравяне “ (data poisoning) включва умишлената операция (от външна или вътрешна страна) на входираната информация при образование на моделите. Това може да докара до извеждането на неточни изходни данни и съответни последици за бизнес интервенциите на предприятието. Следващи по значителност посочени опасности тук са погрешни данни (40%) и утечка на информацията, употребена за образование. И още нещо. Според извършени атакуващи проби към LLM моделите, 32% от откритите уязвимости се дефинират за „ съществени “ (с висок и сериозен риск). В същото време, по-малко от една четвърт (21%) от откритите уязвимости, биват адресирани в реалност.

Независимо от притеснителните открития в отчета, Гюнтер Олман, софтуерен шеф на Cobalt, насочва предизвестие и съвет. Мнението му е, че IT експертите и киберзащитниците бъркат в желанието си за закъснение на внедряването на изкуствения разсъдък.

„ Киберпрестъпниците не изчакват. Екипите по сигурност би трябвало да вършат същото “, счита Олман. Изследването ни сочи, че генеративният изкуствен интелект преобразява метода, по който работим. Но в това време, той пренаписва разпоредбите правилата на риска. Основите на сигурността в тази ситуация би трябвало да се развиват по едно и също време с това. В противоположен случай рискуваме да изградим нововъведенията на утрешния ден на основите на остарели защитни механизми “.


Повече за откритията в отчета може да откриете тук (pdf).

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР