Съществена част от внедряването на AI в дейността на организациите

...
Съществена част от внедряването на AI в дейността на организациите
Коментари Харесай

5 сфери на AI в бизнеса - и за какво да внимаваме


Съществена част от внедряването на AI в активността на организациите в действителност е „ изчистването ” на данните, описа Даниел Грабски, специалист тактики по сигурността в AWS
(екранна фотография: CEE Cybersecurity Forum)

Прилагането на изкуствен интелект в бизнеса може условно да се раздели на 5 сфери и всяка от тях слага разнообразни условия към организацията от позиция на отбрана на данните. Винаги би трябвало да се внимава с потреблението на сензитивна, конфиденциална информация и такава, която може да докара до разкриването на самоличността на съответни хора.

Преди да пристъпим към въвеждането на AI в активността си, би трябвало да сме наясно, че това са логаритми за генериране на наличие – вести, изображения и видео – които са авансово „ тренирани ” върху огромни размери от данни, акцентира Даниел Грабски, специалист тактики по сигурността в AWS за Централна и Източна Европа, по време на форума CEE Cybersecurity Forum 2024, проведен от ИТ консултантската компания Crayon във Варшава.

Качеството на данните за образование предопределя резултатите, добави Грабски, цитирайки Вернер Вогелс, вицепрезидент и CTO на Amazon.com. Съществена част от внедряването в действителност е „ изчистването ” на данните. Те следва да са тествани за евентуални изкривявания, тирада на омразата, нездравословни и рискови практики.

Но най-много данните би трябвало да са чисти от персонална информация, която може да докара до идентифициране на обособени човеци, или така наречен PII (personally identifiable information). Грешки, позволени на това равнище, могат да костват доста спомагателна работа, а също и проблеми с регулаторната съгласуемост. В резултат, процесът може да се оскъпи неимоверно.

5 области на приложение на AI в бизнеса

Можем да очертаем 5 сфери на приложението на AI в дадена организация, уточни Грабски. Категоризационният модел се базира на вида на собствеността над данните и програмния код, като степените варират от на-ниското равнище на владеене до най-високото:

1. Потребителско приложение : бизнесът употребява генеративен AI на трета страна. Това са така наречен „ публични ” генеративни услуги – такива като ChatGPT, Midjourney и други Фирмата не вижда данните, на които е квалифициран моделът, не ги има, не може и да ги модифицира.

2. Корпоративно приложение с AI функционалности : това може да е, да вземем за пример, приложение от снабдител на SaaS, което има AI функционалности, да речем Salesforce Einstein GPT и сходни. В този случай са налице одобрени взаимоотношения сред потребителската организация и доставчика на приложението.

В тези два случая организацията единствено употребява AI, без да се интервенция в неговото основаване. Следващите три категории касаят построяването на генеративен AI:

3. Предварително подготвен модел за лично приложение , основан с логаритъм от различен разработчик. Основополагащият модел е от различен разработчик, само че организацията-потребител независимо го образова и основава лична „ версия ”.

4. Фино надъхан модел за лично приложение : основава се на база логаритъм от различен разработчик. Организацията-потребител рафинира основополагащия модел, зарежда го с данни, характерни за своя бизнес. В последна сметка генерира нов модел, „ профилиран ” за личните ѝ работни потоци.

4. Собствен AI модел , създаден в организацията, подготвен с нейни лични данни: организацията-потребител е и основател, построява модела „ от нула ”, със лични данни и личен код. Следователно организацията е собственик и на кода, и на самите данни.

За какво би трябвало да внимаваме

На всяко от тези равнища организациите-потребители би трябвало да имат поради разнообразни съображения от позиция на сигурността и отбраната на данните, акцентира Грабски. Ето рекомендациите на AWS:

1. Когато AI се употребява като потребителско приложение , следва да внимаваме какви данни вкарваме в системата: какво пишем в „ подканите ”. Всичко, което подаваме и получаваме, следва да се третира като обществено-достъпно. В този случай не трябва да се борави с данни, които биха могли да са конфиденциални, да водят до откриване на самоличността или да са корпоративна интелектуална благосъстоятелност.

„ Нека сме наясно с изискванията на прилагане, сложени от разработчика. Каква е политиката му за обработка на данните? Какви прави с данните? С кого ги споделя? Какви могат да са правните последствия? ”, разясни Грабски. „ Също би трябвало да мислим и за изходящия резултат – какво става, в случай че използваш наличието, генерирано от логаритъма? Чии са авторските права над него? Трябва да следим и за промени в изискванията, а нерядко те се случват без предизвестие ”.

2. Когато се употребява корпоративно приложение като SaaS с детайли на неестествен разсъдък, важат същите съображения, само че и още няколко. А точно: нужно е да се дефинира допустима подредба на данните и да има изясненост къде се съхраняват и обработват. „ Знаете ли къде „ живеят ” данните, къде отиват? Дали се употребяват за трениране на AI модела? Ако да – имате ли механизми да не сте съгласни с това и да откажете потреблението им (opt-out)? ”, са въпроси, на които организациите би трябвало да си отговорят.

3. Предварително подготвеният модел за лично приложение изисква да сме наясно каква е отбраната на подканите и на изходящия резултат. Важен е въпросът чия е собствеността над данните. Не по-малко значително е по какъв начин се пазят, дали се употребяват от доставчика, за какво и по какъв начин се обработват.

„ Трябва да сме наясно какви данни биха могли да бъдат споделени с други консуматори на същото приложение, т.е. клиенти на същия снабдител ”, разясни Грабски. „ Важно е да сме наясно и с авторските права над данните, които се употребяват за трениране на модела ”. Неговата рекомендация е деликатно да се чете текстът на изискванията за прилагане, изключително този „ със дребен шрифт ”.

4. При така наречен тънко надъхан модел за лично приложение , основано с логаритъм от различен разработчик, организацията-потребител би трябвало да внимава какви данни подава за „ фината конфигурация ” на логаритъма: чии са авторските права над данните, съдържат ли се чувствителни такива или пък PII? Въпросът е сериозен, тъй като, един път научил дадени данни, моделът не може да се „ отучи ” от тях; спасението е единствено образование „ от нулата ”, акцентира Грабски.

5. При използване на личен AI модел , създаден в организацията, още веднъж значимо основание е да се заобикаля потреблението на сензитивна информация при третирането на модела. „ В този случай ние притежаваме всичко – и кода, и данните – по тази причина би трябвало да имаме отговорността да известим потребителите по какъв начин се употребяват данните им, по какъв начин се обработват, съхраняват, поддържат. Трябва да предложим съглашение за потребление вид EULA ”, изясни Грабски.

Неговата рекомендация е да се заложат ограничавания за потребление на потребителските данни посредством промптове и произлязъл резултат, с цел да се защищити организацията от опасности, свързани със инцидентно приключване на данни.
Източник: technews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР