Не въвеждайте поверителна информация и не използвайте генериран код от

...
Не въвеждайте поверителна информация и не използвайте генериран код от
Коментари Харесай

Google предупреди служителите си за опасностите от чатботовете

Не въвеждайте поверителна информация и не използвайте генериран код от него

Емил Василев преди 27 секунди 4 Сподели

Най-четени

ТелефониЕмил Василев - 9:00 | 15.06.2023

Списък на най-хубавите смарт телефони, струващи по-малко от 400 лв. – юни 2023 година

IT НовиниСветослав Димитров - 19:14 | 14.06.2023

Microsoft приключи поддръжката на Windows 10 21H2 – препоръките към потребителите са да надстроят OS

АвтомобилиСветлин Желев - 10:09 | 15.06.2023

Първият електромобил на Xiaomi бе сниман от папараци

Емил Василевhttps://www.kaldata.com/

Компанията майка на Гугъл, Alphabet предизвестява всички свои чиновници да бъдат деликатни, когато употребяват чатботове с изкуствен интелект, даже този, създаден от тях – Bard. Това би трябвало да е червен байрак за всички нас. Компанията също по този начин е споделила на инженерите си да заобикалят директното потребление на код, генериран от тези услуги.

В отчет на Reuters, в който се цитират четирима души осведомени с въпроса се показва, че Alphabet е посъветвала своите чиновници да не вкарват поверителна информация в чатботовете с изкуствен интелект.

След като ChatGPT се появи в общественото пространство по-рано тази година, се появиха предизвестия за това да не се споделят прекомерно доста данни с генеративните ИИ. NCSC, част от английската разследваща организация GCHQ, съобщи, че сензитивните потребителски запитвания, като да вземем за пример здравни въпроси или поверителна фирмена информация са забележими за доставчика и могат да бъдат употребявани за образование на бъдещи версии на чатботове.

Samsung забрани потреблението на ChatGPT през май след 3 случая, при които нейни инженери от фабриката за полупроводници са въвели поверителни данни в услугата. Amazon забрани на чиновниците си да споделят код или поверителна информация с чатбота, а Apple го забрани изцяло. Дори компанията която го сътвори – OpenAI, поучава потребителите да внимават какво вкарват в текстовото поле за въпроси към него.

Освен, че хора могат да прочетат поверителни данни, които потребителите са въвели, съществува и риск тази информация да бъде разкрита при приключване на данни или хакерска офанзива. През март OpenAI краткотрайно изключи функционалността за история на чатовете на ChatGPT, откакто неточност в услугата докара до това, че заглавията на диалозите на други консуматори се показваха в страничната лента с историята, намираща се в лявата част на уебстраницата.

Въпреки рестриктивните мерки, неотдавнашно изследване измежду 12 000 души сподели, че 43% от тях употребяват принадлежности с изкуствен интелект като ChatGPT за задания, свързани с работата си, като една 1/3 го вършат без да споделят на шефа си.

Alphabet също по този начин сподели на своите инженери да заобикалят директното потребление на кода, който чатботовете генерират. На въпроса „ за какво “, компанията отговори, че Bard може да дава несъответствуващи оферти. Гугъл също по този начин съобщи, че има за цел да бъде транспарантна във връзка с рестриктивните мерки на своята технология.

Тази седмица имаше още неприятни вести за Bard, когато стана ясно, че на този миг Гугъл няма да пусне чатбота в Европа заради опасения за неприкосновеността на персоналния живот.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР