Докато технологичният сектор се надпреварва да разработва и внедрява нови

...
Докато технологичният сектор се надпреварва да разработва и внедрява нови
Коментари Харесай

Бездънна „черна кутия“: Защо не трябва да казвате нищо лично на ChatGPT

Докато софтуерният бранш се надпреварва да създава и внедрява нови мощни чатботове с изкуствен интелект, необятното им разпространяване провокира нова доза опасения за неприкосновеността на персоналните данни измежду някои компании, регулатори и наблюдаващи в бранша.

Компании, измежду които JPMorgan Chase, към този момент ограничиха потреблението на ChatGPT измежду чиновниците. Именно този чатбот пръв даде началото на обществената конкуренция сред софтуерните колоси в тази област на AI разработките.

Първоначалните ограничавания на ChatGPT бяха свързани по-скоро с превантивна нерешителност, обвързвана с използването на приложения на трети страни на устройства, които се употребяват за служебни цели. Тревогите обаче набъбнаха, когато разработчикът на инструмента – OpenAI, заяви, че на 20 март е трябвало краткотрайно да го изключи от мрежата, с цел да в профил неточност, водеща до непозволен достъп до персонална информация. Въпросният бъг даде опция на някои ползватели на ChatGPT виждат името и семейството на различен деен консуматор, имейл адреса, адреса за заплащане, последните четири числа от номера на кредитната карта и датата на приключване на валидността ѝ.

След като OpenAI разкри нарушаването, предходната седмица регулаторните органи в Италия станаха първите, наложили краткотрайна възбрана за ChatGPT в страната, базирайки се на опасения за неприкосновеността на персоналния живот. Други страни, като Германия, дадоха поръчка, че са склонни да сторят същото, в случай че открият рискови нередности.

„ Черна кутия “ от данни

„ Съображенията, свързани с неприкосновеността на персоналния живот, при нещо като ChatGPT не могат да бъдат пресилени “, съобщи пред CNN Марк Маккриъри от адвокатската адвокатска фирма Fox Rothschild LLP. „ Това е като черна кутия. “

С ChatGPT, която започва обществено в края на ноември, потребителите могат да основават есета, разкази и текстове на песни, като просто вкарват команди. Инструментът закупи голяма известност и той скоро счупи върха за най-бързо разрастващото се потребителско приложение – за към два месеца дейните му месечни ползватели надвишиха 100 млн.

Междувременно Microsoft влага 10 милиарда $ в OpenAI и внедри GPT технологията в своите артикули, а Гугъл стартира своя съперник Bard. Редица други компании също дадоха поръчка, че работят по свои артикули, а да вземем за пример сподели, че ще интегрира ChatGPT в чат платформата си.

Генеративни изкуствени интелекти като чатбота на OpenAI работят по подобен метод и всички те се образоват от големи масиви от онлайн данни. „ Не знаете по какъв начин тя ще бъде употребена по-късно “, споделя Маккриъри във връзка с въвежданата от потребителите информация при интеракцията с подобен чатбот.

Това поражда изключително огромна угриженост за фирмите. Тъй като от ден на ден чиновници протягат ръка към тези принадлежности, с цел да си оказват помощ с работните имейли или бележки от срещи. „ Мисля, че опцията търговски секрети на компанията да попаднат в тези разнообразни изкуствени интелекти единствено ще се усилва. “

Стив Милс, основен специалист по етиката на изкуствения разсъдък в Boston Consulting Group, също счита, че най-голямото терзание за неприкосновеността на персоналния живот, което множеството компании имат по отношение на тези принадлежности, е „ неволното откриване на сензитивна информация “.

Всички тези чиновници вършат неща, които могат да наподобяват доста безобидни, като потреблението на тези чатботове за обобщаване на бележки от работна среща да вземем за пример. „ Но когато вмъквате бележките от срещата в подкана, внезапно евентуално разкривате цялостен куп сензитивна информация “, показва Милс.

Ако данните, които хората вкарват, се употребяват за по-нататъшно образование на тези принадлежности за изкуствен интелект, както обявиха доста от фирмите, които стоят зад тях, тогава вие „ сте изгубили надзор над тези данни и някой различен ги има “, акцентира Милс.

OpenAI показва в своята политика за дискретност, че събира всевъзможен тип персонална информация от хората, ползващи нейните услуги. Разработчикът признава, че може да я употребява, с цел да усъвършенства или проучва услугите си, да организира проучвания, да комуникира с потребителите и да създава нови стратегии и услуги, наред с други неща. В политиката за дискретност се показва още, че може да дава персонална информация на трети страни без в допълнение известяван на потребителя, в случай че това не се изисква от закона.

Ако написаната допълнително от 2000 думи политика на компанията наподобяват малко непрозрачна, то това не е изненада, а наклонност, трансформиралата се в норма за промишлеността в ерата на интернет.

„ Ние не използваме данни за продажба на нашите услуги, реклама или създаване на профили на хора – ние използваме данни, с цел да създадем нашите модели по-полезни за хората “, се споделя в блог пост на OpenAI от сряда. „ ChatGPT, да вземем за пример, се усъвършенства посредством в допълнение образование въз основата на диалозите, които хората водят с него. “

Политиката за дискретност на Гугъл, която включва и инструмента Bard, е също толкоз пространна. „ Не включвайте информация, която може да бъде употребена за идентифициране на вас или на други лица във вашите диалози за Bard “, предизвести колосът, като въпреки всичко увери, че данните не се употребяват за рекламни цели все още.

„ Все още се учим по какъв начин тъкмо работи всичко това “, уточни Стив Милс пред CNN. „ Просто не знаете изцяло по какъв начин информацията, която въвеждате, се употребява за преквалификация на тези модели. “

Милс добави, че от време на време потребителите и разработчиците даже не осъзнават рисковете за неприкосновеността на персоналния живот, които се крият в новите технологии, до момента в който не стане прекомерно късно. Като образец той уточни ранните функционалности за автоматизирано попълване, някои от които са довели до непредвидени последствия, като да вземем за пример нежелано попълване на номера на обществената осигуровка.

„ Не би трябвало да поставяте нищо в тези принадлежности, за което не желаете вероятно да бъде споделено с други хора. “
Източник: boulevardbulgaria.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР