Google предупреди служителите си за опасностите от чатботовете
Не въвеждайте поверителна информация и не използвайте генериран код от него
Емил Василев преди 27 секунди 4 СподелиНай-четени
ТелефониЕмил Василев - 9:00 | 15.06.2023Списък на най-хубавите смарт телефони, струващи по-малко от 400 лв. – юни 2023 година
IT НовиниСветослав Димитров - 19:14 | 14.06.2023Microsoft приключи поддръжката на Windows 10 21H2 – препоръките към потребителите са да надстроят OS
АвтомобилиСветлин Желев - 10:09 | 15.06.2023Първият електромобил на Xiaomi бе сниман от папараци
Емил Василевhttps://www.kaldata.com/Компанията майка на Гугъл, Alphabet предизвестява всички свои чиновници да бъдат деликатни, когато употребяват чатботове с изкуствен интелект, даже този, създаден от тях – Bard. Това би трябвало да е червен байрак за всички нас. Компанията също по този начин е споделила на инженерите си да заобикалят директното потребление на код, генериран от тези услуги.
В отчет на Reuters, в който се цитират четирима души осведомени с въпроса се показва, че Alphabet е посъветвала своите чиновници да не вкарват поверителна информация в чатботовете с изкуствен интелект.
След като ChatGPT се появи в общественото пространство по-рано тази година, се появиха предизвестия за това да не се споделят прекомерно доста данни с генеративните ИИ. NCSC, част от английската разследваща организация GCHQ, съобщи, че сензитивните потребителски запитвания, като да вземем за пример здравни въпроси или поверителна фирмена информация са забележими за доставчика и могат да бъдат употребявани за образование на бъдещи версии на чатботове.
Samsung забрани потреблението на ChatGPT през май след 3 случая, при които нейни инженери от фабриката за полупроводници са въвели поверителни данни в услугата. Amazon забрани на чиновниците си да споделят код или поверителна информация с чатбота, а Apple го забрани изцяло. Дори компанията която го сътвори – OpenAI, поучава потребителите да внимават какво вкарват в текстовото поле за въпроси към него.
Освен, че хора могат да прочетат поверителни данни, които потребителите са въвели, съществува и риск тази информация да бъде разкрита при приключване на данни или хакерска офанзива. През март OpenAI краткотрайно изключи функционалността за история на чатовете на ChatGPT, откакто неточност в услугата докара до това, че заглавията на диалозите на други консуматори се показваха в страничната лента с историята, намираща се в лявата част на уебстраницата.
Въпреки рестриктивните мерки, неотдавнашно изследване измежду 12 000 души сподели, че 43% от тях употребяват принадлежности с изкуствен интелект като ChatGPT за задания, свързани с работата си, като една 1/3 го вършат без да споделят на шефа си.
Alphabet също по този начин сподели на своите инженери да заобикалят директното потребление на кода, който чатботовете генерират. На въпроса „ за какво “, компанията отговори, че Bard може да дава несъответствуващи оферти. Гугъл също по този начин съобщи, че има за цел да бъде транспарантна във връзка с рестриктивните мерки на своята технология.
Тази седмица имаше още неприятни вести за Bard, когато стана ясно, че на този миг Гугъл няма да пусне чатбота в Европа заради опасения за неприкосновеността на персоналния живот.




