Много хора са влюбени в генеративния изкуствен интелект и използват

...
Много хора са влюбени в генеративния изкуствен интелект и използват
Коментари Харесай

Как да се опазим от изкуствения интелект?

Много хора са влюбени в генеративния изкуствен интелект и употребяват новите AI принадлежности за всевъзможни персонални или бизнес цели. Но постоянно подценяват евентуалните последствия за поверителността, а те могат да бъдат обилни.

От ChatGPT на OpenAI до Gemini на Гугъл, Copilot на Microsoft и Apple Intelligence, новите AI принадлежности са елементарно налични и се популяризират бързо измежду потребителите. Те обаче имат разнообразни политики за дискретност във връзка с потребителските данни и тяхното предпазване. В доста случаи потребителите не са наясно по какъв начин техните данни се употребяват или могат да бъдат употребявани.

Ето за какво да си осведомен консуматор става извънредно значимо. Но контролът върху поверителността и данните е друг, според от AI инструмента. „ Няма повсеместен отвод за всички принадлежности ”, споделя Джоди Даниелс, основен изпълнителен шеф и съветник по поверителността в Red Clover Advisors, в изявление за CNBC.

Разпространението на AI принадлежности – и тяхното консолидиране в доста от това, което хората вършат на своите лични компютри и смарт телефони – прави въпроса за поверителността още по-уместен.

Преди няколко месеца Microsoft пусна първите си Surface компютри със специфичен бутон Copilot на клавиатурата за бърз достъп до чатбота на компанията, изпълнявайки заричане, обещано по-рано. Apple очерта визия за AI, която се върти към няколко по-малки модела, работещи на устройства и чипове на компанията. Шефовете в Купертино приказваха обществено за смисъла, което Apple придава на поверителността, което може да бъде предизвикателство за AI моделите.

Ето няколко метода, по които хората могат да защитят поверителността си в новата епоха на генеративен изкуствен интелект (GenAI):

Задайте на AI въпроси за поверителността

Преди да изберете AI инструмент, прочетете деликатно обвързваните политики за дискретност. Как се употребява вашата информация и по какъв начин може да бъде употребена? Има ли алтернатива за изключване на шерването на данни? Има ли метод да се ограничи какви данни се употребяват и какъв брой дълго се съхраняват? Могат ли данните да бъдат изтрити? Трябва ли потребителите да минават през лабиринти, с цел да намерят настройки за отвод?

Според експертите по дискретност, би трябвало да ни светне червен байрак, в случай че не можем елементарно да отговорим на тези въпроси или да намерим отговори на тях в разпоредбите за дискретност на доставчика.

„ Инструмент, който се грижи за поверителността, ще ви каже [това, което ви интересува] ”, показва Джоди Даниелс. И в случай че не го направи, „ би трябвало да имате благосъстоятелност върху поверителността ”, прибавя тя. „ Не можете просто да приемете, че компанията ще направи вярното нещо. Всяка компания има разнообразни полезности и всяка компания прави пари по друг метод ”.

Джоди дава за образец Grammarly, инструмент за редактиране, употребен от доста консуматори и компании. Разработчикът ясно изяснява на няколко места в уеб страницата си по какъв начин се употребяват данните.

Пазете сензитивните данни от огромни езикови модели

Някои хора са доста доверчиви, когато става въпрос за включване на чувствителни данни в генеративни AI модели. Но Андрю Фрост Мороз, създател на Aloha Browser, фокусиран върху поверителността, предлага на хората да не дават никакви типове чувствителни данни, защото в действителност не знаят по какъв начин AI може да ги употребява или вероятно да злоупотреби с тях.

Това важи за всички типове информация, която хората могат да вкарат, без значение дали е персонална или обвързвана с работата. Много корпорации са загрижени по отношение на потреблението на AI модели от чиновниците, с цел да им оказват помощ в работата. Служителите може да не обмислят по какъв начин тази информация се употребява от модела за задачите на образованието.

Ако въвеждате конфиденциален документ, AI моделът към този момент има достъп до него, което може да породи всевъзможни опасения. Повечето компании ще одобрят потреблението единствено на потребителски версии на AI принадлежности, които поддържат защитна стена сред частната информация и огромните езикови модели.

Хората също би трябвало да бъдат деликатни и да не употребяват AI модели за нещо, което не е обществено или което не биха желали да бъде споделяно с други в каквото и да е качество, сподели Фрост Мороз.

Осъзнаването на това по какъв начин употребявате AI е значимо. Ако го употребявате, с цел да обобщите публикация от Wikipedia, това може да не е проблем. Но в случай че го употребявате, с цел да обобщите, да вземем за пример, персонален юридически документ, това не е целесъобразно.

Или да кажем, че имате изображение на документ и желаете да копирате избран параграф. Можете да помолите AI да прочете текста, с цел да го копирате. Правейки това, AI моделът ще знае наличието на документа, тъй че потребителите би трябвало да имат това поради, споделя Мороз.

Използвайте опциите за отвод

Всеки инструмент от потомство AI има свои лични политики за дискретност и може да има варианти за отвод. Gemini на Гугъл, да вземем за пример, разрешава на потребителите да основават интервал на задържане и да изтриват избрани данни, наред с други контроли.

Потребителите могат да се откажат от потребление на техните данни за образование на модели от ChatGPT. За да създадат това, те би трябвало да направляват до иконата на профила в долния ляв ъгъл на страницата и да изберат Data Controls под заглавката Settings. След това би трябвало да деактивират функционалността, която споделя „ Подобрете модела за всички ”. Докато тази алтернатива е деактивирана, новите диалози няма да се употребяват за образование на моделите на ChatGPT, съгласно раздела за постоянно задавани въпроси (FAQ) в уеб страницата на OpenAI.

Няма действителни преимущества за потребителите да разрешат на AI да се образова върху техните данни – има опасности, които към момента се изследват, споделя Джейкъб Хофман-Андрюс, старши технолог в Electronic Frontier Foundation, интернационална организация с нестопанска цел за цифрови права.

Ако персоналните данни са оповестени непозволено в мрежата, потребителите може да имат алтернатива да ги отстранен и по-късно те ще изчезнат от търсачките. Но отучването на AI модели е напълно друга игра, споделя Хофман-Андрюс. Може да има някои способи за намаляване на потреблението на избрана информация, откакто е попаднала в AI модел, само че те не са безупречни – по какъв начин да се направи това дейно е въпрос на интензивно проучване.

Включване единствено по основателни аргументи

Компаниите интегрират GenAI в ежедневни принадлежности, които хората употребяват в персоналния и професионалния си живот. Copilot за Microsoft 365, да вземем за пример, работи с Word, Excel и PowerPoint, с цел да помогне на потребителите със задания като разбори, генериране на хрумвания, организация и други.

За тези принадлежности Microsoft споделя, че не споделя потребителски данни с трета страна без позволение и не употребява потребителски данни за образование на Copilot или неговите AI функционалности без единодушие.

Потребителите обаче могат да се намесят, като влязат в центъра за администриране на Power Platform, изберат настройки на клиента и включат шерването на данни за Dynamics 365 Copilot и Power Platform Copilot AI Features. Тези варианти разрешават шерване на данни и опазване.

Предимствата на включването са опцията да извършите съществуващите функционалности по-ефективни. Недостатъкът обаче е, че потребителите губят надзор върху метода, по който се употребяват техните данни, което е значимо основание, споделят експертите по дискретност.

Добрата вест е, че потребителите, които са избрали Microsoft, могат да отдръпват единодушието си когато и да е. Те могат да създадат това, като отидат на страницата с настройки на клиента в центъра за администриране на Power Platform и изключат шерването на данни за Dynamics 365 Copilot и Power Platform Copilot AI Features.

Задайте къс интервал на задържане при търсене с GenAI

Потребителите може да не се замислят доста, преди да потърсят информация благодарение на AI. Въпреки това, даже търсенето на избрани видове информация с GenAI може да бъде натрапчиво за поверителността.

Има положителни практики при потребление на AI принадлежности за задачите на търсенето. Ако е допустимо, задайте къс интервал на задържане за Gen AI инструмента, споделя Хофман-Андрюс. И изтрийте чатовете, откакто сте получили търсената информация.

Компаниите към момента имат сървърни регистрационни файлове, само че това може да помогне за понижаване на риска трета страна да получи достъп до вашия акаунт. Това може също да понижи риска сензитивната информация да стане част от образованието на модела. „ Наистина зависи от настройките за дискретност на съответния уебсайт ”, заключава Хофман-Андрюс.
Източник: novinite.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР