Услугите с изкуствен интелект са станали част от ежедневието, захранвайки

...
Услугите с изкуствен интелект са станали част от ежедневието, захранвайки
Коментари Харесай

Безопасно ли е да даваме данните си на AI ботовете

Услугите с изкуствен интелект са станали част от всекидневието, захранвайки всичко - от асистенти за писане и генератори на изображения до принадлежности за различаване на лица и приложения за персонална работливост. И въпреки всичко, тяхното улеснение повдига фундаментален въпрос: какво се случва с данните, изображенията и командите, които потребителите качват и в действителност ли е безвредно да се дава персонална информация в подмяна на благоприятни условия, задвижвани от изкуствен интелект? 

Водещите услуги за изкуствен интелект, измежду които ChatGPT, Гугъл Gemini и Microsoft Copilot, се придържат към еднакъв принцип: данните, които потребителят изпраща, се употребяват както за даване на услугата, по този начин и за възстановяване на базовите им модели. Когато потребителят изпрати команда, документ или изображение, тази информация пътува до сървърите на компанията. Оттам тя не се употребява единствено за непосредствената поръчка, само че постоянно се резервира, с цел да подкрепи образованието на идващите версии AI, за моделите да станат по-способни и точни с течение на времето.

Общото състояние

Някои компании анонимизират тези данни, като отстраняват идентификаторите, преди да ги употребяват за образование. Други дават на потребителите опция да се откажат от даването на данните си за възстановяване на модела, което обаче може да им коства от неговата функционалност.

Прозрачността обаче варира. Докато политиките нормално показват, че „ данните могат да се употребяват за възстановяване на услугите “, спецификите - какъв брой дълго се съхраняват данните, къде се съхраняват и кой има достъп, постоянно са скрити в строги съглашения за дискретност. 

Освен това, част от тези предоставени данни подлежат на човешка инспекция. За да се подсигурява качеството на моделите и да се разпознава и маркира наличие, което може да е неуместно, проверяващите могат да преглеждат и анотират избрани потребителски данни.

Посочва се, че се подхващат ограничения за отбрана на поверителността, като да вземем за пример спиране на връзката на данните с персоналния акаунт на потребителя, преди да бъдат прегледани, само че самата информация остава налична за тази цел. Въпреки че тези компании настояват, че не продават потребителски данни на трети страни, те могат да ги споделят със свързани лица, снабдители на услуги, които поддържат тяхната инфраструктура, и правосъдни органи, както е задължено от закона.

Конкретно за изображенията

С появяването на генератори на изображения с изкуствен интелект и принадлежности като Гугъл Gemini, MidJourney и ChatGPT с благоприятни условия за работа с компютърно зрение, въпросът за обработката на изображения е изключително сензитивен. Снимките могат да съдържат освен артистични хрумвания, само че и персонални лица, документи или среди. 

Повечето услуги дават обещание да не продават или споделят обществено изображения. Някои, като OpenAI, автоматизирано изтриват качените файлове след несъмнено време или разрешават на потребителите да лимитират данните си посредством табла за ръководство. Други съхраняват файловете по-дълго за „ гаранция на качество “. За корпоративните и бизнес потребителите постоянно се ползват по-строги съглашения, които подсигуряват, че личните изображения или документи остават поверителни. 

Какви са отбраните

За да се противодейства на тези опасности AI фирмите са въвели разнообразни протоколи за сигурност. Основен пласт отбрана е криптирането, което пази данните както по време на предаването им от устройство към сървъра, по този начин и до момента в който те са на самия сървър. Това е общоприета процедура, предопределена да предотврати неоторизиран достъп. По-големите снабдители минават през постоянни одити за сигурност и съблюдават наредбите за дискретност, като да вземем за пример GDPR в Европа или CCPA в Калифорния. 

Въпреки това, пробиви могат да зародят. През 2023 година OpenAI краткотрайно деактивира ChatGPT, откакто неточност разкри елементи от историята на чата на някои консуматори. Инциденти като този акцентират, че никоя система не е изцяло предпазена, изключително когато сървърите обработват големи размери от сензитивно наличие всекидневно. 

Потребителите получават и известна степен на надзор върху данните си, макар че тези варианти се разграничават според от услугата. Например, ChatGPT дава на потребителите опцията да се откажат от потреблението на данните си за обучителни цели и да изтрият историята на чата си. Той предлага и функционалност „ Временен чат “, която автоматизирано изтрива диалозите след къс интервал.

По сходен метод Гугъл Gemini дава алтернатива за изключване на „ Дейност в приложенията на Gemini “, което предотвратява запазването на диалозите в акаунта и потреблението им за образование на модели. По-специално на корпоративните и просветителните клиенти постоянно се дава по-стабилен надзор, като се подсигурява, че данните им въобще не се употребяват за тази цел.

И въпреки всичко коства ли си

Безопасността на поверяването на информация на тези услуги зависи напълно от естеството на самите данни. Споделянето на сензитивна персонална информация, като да вземем за пример финансови данни или поверителни документи, носи забележителен и безспорен риск. Въпреки че фирмите се стремят да предотвратяват нарушавания, опцията за сходни събития или човешка неточност е постоянно налице. След като данните бъдат подадени, потребителят губи цялостния надзор над тях. 

Дали тази " търговия " си " коства " е въпрос на персонална преценка, изискващ деликатно балансиране на риска и облагата. За общи, нечувствителни приложения, като да вземем за пример писане на имейл, брейнсторминг на хрумвания или основаване на елементарни изображения, изгодите от нарасналата продуктивност и креативност постоянно надвишават минималните опасности.

Когато обаче данните са от сензитивен или конфиденциален темперамент, салдото се трансформира фрапантно. В такива случаи капацитетът за приключване на данни, колкото и най-малък да е, може да докара до съществени персонални или професионални последствия, което прави потреблението на тези услуги безразсъдно.

Мъдър метод на деяние за проницателния консуматор е да работи благоразумно. Трябва да се ограничи количеството персонална и поверителна информация, споделяна с тези услуги и да се употребяват пълноценно функционалностите за дискретност, които те оферират. Точно както човек не би приказвал за персонален въпрос на градския площад, по този начин би трябвало да демонстрира същата поверителност, когато вкарва информация в обществен модел на изкуствен интелект. Силата на тези принадлежности е ясна, само че с огромната мощ идва и отговорността за отбрана на личната дискретност.

Не пропускайте най-важните вести - последвайте ни в 
Източник: vesti.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР