Представете си, че сте вкарали бележките си от среща с

...
Представете си, че сте вкарали бележките си от среща с
Коментари Харесай

Безопасно ли е да споделяте лична информация с чатбот?

Представете си, че сте вкарали бележките си от среща с рентгенолог в AI чатбот и сте го помолили да ги заключи.

По-късно чужд човек подканя същия инструмент да го просвети за опасенията му, свързани с рака, и част от персоналния ви диалог се изплюва на този консуматор под формата на отговор.

Опасенията за сходни евентуални нарушавания на неприкосновеността на персоналния живот са настоящи за доста хора, защото известността на чатботовете се популяризира от ден на ден.

Големият въпрос тук е: Безопасно ли е да се споделя персонална информация с тези чатботове?

Краткият отговор е, че постоянно съществува риск споделената от вас информация да бъде разкрита по някакъв метод. Но има способи тази заплаха да бъде лимитирана, съгласно разбор на The Wall Street Journal.

За да се схванат мащабите на рисковете, е потребно да се намерения за това по какъв начин тези принадлежности се " образоват " - по какъв начин в началото се зареждат с големи количества информация от интернет и други източници и могат да продължат да събират данни от взаимоотношенията си с потребителите, с цел да станат по-умни и по-точни.

В резултат на това, когато зададете въпрос на AI чатбот, неговият отговор се основава частично на информация, която включва материали, датиращи от доста преди да има правила за потреблението на данни в интернет и поверителността. А още по-старият първоначален материал е цялостен с персонална информация на хората, която е разпръсната из мрежата, разяснява WSJ.

Това оставя доста благоприятни условия поверителните данни да бъдат включени в обучителните материали на другите принадлежности с неестествен интелект- информация, която може несъзнателно да се появи в диалог на някой различен с чатбот или да бъде съзнателно хакната или разкрита посредством хитри подкани или въпроси.

" Знаем, че те са били обучавани на голямо количество информация, която евентуално съдържа сензитивна информация ", споделя пред WSJ Рамая Кришнан, шеф на факултета Technology and Security в Block Center.

Един от главните проблеми, съгласно Кришнан, е, че никой не е направил самостоятелен одит, с цел да види с акуратност какви данни за образование се употребяват.

" Голяма част от доказателствата идват от учени, които хакват защитните огради и демонстрират, че в данните за образование има персонална информация ", споделя той.

Професорът прибавя, че откакто инструментът за изкуствен интелект бъде внедрен, той нормално продължава да се образова въз основата на взаимоотношението на потребителите с него, като усвоява и съхранява всякаква информация, която те му подават.

На всичкото от горната страна в някои случаи човешки чиновници четат диалози, които потребителите водят с чатботовете. Това се прави частично за да се улови и предотврати неуместно държание и да се подкрепи точността и контролът на качеството на моделите, споделят специалистите.

Притесненията не са теоретични

През март предходната година OpenAI разкрива накърнимост, която разрешава на някои консуматори на ChatGPT да виждат заглавията на чатовете на други консуматори с инструмента и за малко е разкрила данни, свързани с заплащания, имейл адреси и последните четири числа от номера на кредитни карти.

Това е станало вследствие на неточност в програмен продукт с отворен код, който е бил употребен при образованието на инструмента, разяснява WSJ.

Чатботовете са податливи и към умишлени офанзиви. Изследователи неотдавна откриха лесни способи за заобикаляне на защитните огради и откриване на персонална информация, събрана от огромни езикови модели, в това число имейли.

" Въпросът е, че тези софтуерни системи с изкуствен интелект са комплицирани и са построени върху други съставни елементи, някои от които са с отворен код, и включват уязвимости, които могат да бъдат употребявани ", споделя Ирина Райку, шеф на програмата за интернет нравственос в Центъра за приложна нравственос Markkula към университета в Санта Клара.

Загрижеността за неприкосновеността на поверителната информация е задоволително огромна, с цел да може няколко компании да лимитират или забранят потреблението на AI принадлежности от чиновниците си по време на работа.

" Ако огромните компании са загрижени за отбраната на персоналната информация, в случай че не са сигурни какво се случва с техните данни, това ни подсказва, че би трябвало да сме внимателни, когато споделяме нещо персонално ", отбелязва Райку.

" Няма какво да се направи за това, което към този момент е в моделите на чатботовете, само че за какво да рискувате персоналната ви информация да излезе нескрито, като въведете нови данни като тези в модела? "

Създателите на AI инструментите са подхванали някои стъпки за отбрана на поверителните данни на потребителите. Например, те могат да изключат опцията на ChatGPT да съхранява историята на чата им за неопределен срок посредством доста забележим комутатор на началната му страница.

Това не е безотказна отбрана против хакери - уеб сайтът споделя, че въпреки всичко ще съхранява новите чатове на потребителите, които изберат тази алтернатива, в продължение на 30 дни, само че ясно показва, че те няма да бъдат употребявани за образование на модела.

На този декор Bard изисква вход в Bard.Google.com, след което се следват няколко стъпки, с цел да се изтрие цялата активност в чата.

Потребителите на Bing могат да отворят уебстраницата на чатбота, да прегледат историята на търсенията си в дясната част на страницата, след което да изтрият обособените диалози, които желаят да отстранен. " В момента обаче потребителите не могат да деактивират историята на чатовете ", споделя представител на Microsoft пред WSJ.

Но най-хубавият метод за хората да се защитят, споделят специалистите, е да заобикалят шерването на персонална информация с технологията и да се оглеждат за избрани червени флагове, когато беседват с който и да е инструмент.

Индикаторите включват потреблението на чатбот, който няма уведомление за дискретност. " Това ви подсказва, че нужното ръководство не е толкоз зряло, колкото би трябвало да бъде ", споделя Доминик Лайпциг, сътрудник по въпросите на поверителността и киберсигурността в адвокатската адвокатска фирма Mayer Brown.

Друг случай е, когато чатботът желае повече персонална информация, в сравнение с е належащо.

" Понякога, с цел да влезете в даден акаунт, би трябвало да споделите номера на акаунта или паролата си и да отговорите на някои персонални въпроси и това не е извънредно ", разяснява Лайпциг. Тя също по този начин разяснява, че не е рационално да обсъждате нещо персонално с чатбот, за който в никакъв случай не сте чували, защото цялата система може да се ръководи от злонамерени хора.

Експертите предизвестяват да не се вкарват съответни здравословни положения или финансова информация в AI принадлежности за общо прилагане, защото множеството компании ясно показват в изискванията си, че някои диалози могат да бъдат прочетени от човешки чиновници. " Струва ли си да рискувате информацията ви да излезе нескрито, когато отговорът, който AI връща, може да е неакуратен по този начин или другояче? Вероятно не ", споделя Райку.

Рамая Кришнан, базирайки се на риска от хакери, предизвестява хората да помислят два пъти, преди да употребяват функционалността на Bard, която разрешава всичките ви имейли да бъдат прочетени и обработени от инструмента, тъй че той да разбере стила и тона ви на писане.

В последна сметка това, което въвеждате в чатбота, изисква пресмятане на риска и възвръщаемостта, а равнището на комфорт на всеки ще бъде друго, отбелязва WSJ. Въпреки това специалистите споделят, че би трябвало най-малко да ревизирате два пъти изискванията за прилагане и политиките за дискретност, с цел да разберете по какъв начин ще бъдат употребявани вашите данни.

" Авторитетните компании с генеративен интерфейс подхващат ограничения за отбрана на потребителите ", споделя Лайпциг. Въпреки това, общото мнение на експертите е, че постоянно би трябвало да бъдете деликатни, преди да споделяте сензитивна информация с AI инструментите.
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР