Следващият път, когато използвате ChatGPT, за да улесните работата си

...
Следващият път, когато използвате ChatGPT, за да улесните работата си
Коментари Харесай

ChatGPT не улеснява само служителите в работата им, но и престъпниците в кражбите

Следващият път, когато употребявате ChatGPT, с цел да улесните работата си върху ежедневните професионални задания, се замислете върху следния факт - тази технология има и своята тъмна страна.

Криминални субекти от целия свят се надпреварват да измислят способи, посредством които да се възползват от преимуществата на сходни платформи за напълно противозаконни задания. Добър образец в тази посока може да се види в отчет на NordVPN, съгласно който размерът на изявленията, свързани с ChatGPT във форумите на тъмния интернет, нараства с 145% през януари и февруари 2023 година Това включва и изявления, които разискват по какъв начин одобрените NLP умения на бота могат да бъдат употребявани за акции по спиър-фишинг и обществено инженерство.

Големите езикови модели и огромните опасности, свързани с тях

Престъпниците освен употребяват ботове, създадени от законни софтуерни компании като Гугъл, Microsoft и OpenAI, само че има и обезпокоителен тренд на появяването на нови " тъмни " субекти като WormGPT и FraudGPT, които са създадени особено за злонамерени цели. Общото сред всички тях, било то законни или злонамерени, е, че са задвижвани от огромни езикови модели (LLMs).

Те съставляват, които употребяват техники за надълбоко образование (deep learning techniques), предопределени за схващане и генериране на човешки език. LLM нормално се образоват върху големи количества разнородни текстове като книги, публикации, уеб страници и други източници, с цел да научат статистически модели, връзки и езиковата конструкция в данните.

Големите езикови модели се оправят чудесно с разнообразни типове натурален език (NLP), в това число попълване на текстове, разбор на настроения, езиков превод и отговаряне на въпроси. Те употребяват техники на генеративния изкуствен интелект, с цел да генерират пореден и контекстуално съответстващ текст, имитирайки човешкия език.

Как нарушителите употребяват изкуствения разсъдък?

Chat GPT е тъкмо подобен езиков модел, създаден от лабораторията OpenAI. Той, както и други създадени от разнообразни софтуерни компании ботове, включват функционалности за сигурност, предопределени да предотвратят злонамереното потребление на технологията. Много от тези отбрани обаче могат елементарно да бъдат заобиколени и избегнати посредством избрани техники.

Злонамерени субекти могат да употребяват огромните езикови модели, с цел да ускорят скоростта и обсега, с които правят противозаконни действия, измежду които киберпрестъпност, финансови закононарушения, трафик на хора, както разпространяване на дезинформация и подправени вести. Можем да бъдем сигурни, че с темпа на развиването на тази технология, нарушителите ще намерят метод да я употребяват и да доразвият капацитета й, с цел да ускорят и други типове незаконни действия.

ФБР, а също и " Европол ", неотдавна публично оповестиха това, че нарушители могат да употребяват генеративния изкуствен интелект и огромните езикови модели по голям брой способи, посредством които да си оказват помощ в ускоряването на незаконни действия в кибер пространството.

Атаки от нов, по-опасен тип

Големите езикови модели (ГЕМ) дават опция за основаване на по-убедителни и законно изглеждащи фишинг имейли и това да става в огромен мащаб. Като автоматизират основаването на извънредно безапелационни подправени имейли, персонализирани по отношение на получателя, нарушителите могат да усилят възможностите за триумф на своите офанзиви.

Освен бързото генериране на текст на база елементарни насоки, ГЕМ могат да употребяват истинска документи като имейли от законен снабдител на заплащания за сформиране на наличие, което имитира стилът на писане, тонът и постоянно употребяваните думи на същинския създател.

Престъпници могат също по този начин да се възползват от ГЕМ, с цел да работят с автоматизирани ботове, които могат безапелационно да имитират стила на връзка на действителни лица или представители на обслужване на клиенти, с цел да оказват помощ в измамите, свързани с фишинг имейли или злонамерени уеб страници.

Също по този начин специалистите към този момент следят първите случаи, в които киберпрестъпници употребяват ChatGPT за създаване на злоумишлен програмен продукт. ChatGPT занижава равнището на знанията и уменията, които IT експертите следва да имат и по този начин се основават предпоставки за повече " евентуални хакери ", имащи за цел да основат дейно работещ злоумишлен програмен продукт. Технологията на ChatGTP прави по-лесно за тези, които нямат обширни знания в създаването или уменията за програмиране да основават доста по-сложни стратегии в сравнение с действителните умения им разрешават.

Последните данни от компанията за киберсигурност Checkpoint демонстрират, че ChatGPT сполучливо може да извърши цялостния развой на кибер закононарушение, започвайки от основаването на безапелационен имейл за характерен фишинг до осъществяването на офанзива с противоположна обязаност. Според скорошно изследване, извършено от Blackberry, 51% от лицата, вземащи решения в региона на осведомителните технологии, имат вяра, че в идващите 12 месеца ще има сполучлива хакерска атака, като виновникът ще бъде напълно и изрично ChatGPT.

И тук идва разумният въпрос - има ли по какъв начин да се предпазим от сходни офанзиви? Отговорът се крие още веднъж в използването на изкуствения разсъдък, само че с противоположен знак - когато потреблението му става за разбор на заплахите, а не за основаването им. Можем да дадем образец с компанията, която създава решения за проверяващ разбор, които стъпват върху същите съвременни технологии.
Източник: money.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР