На 10 ноември 2023 г. специализирани медии съобщиха, че Microsoft

...
На 10 ноември 2023 г. специализирани медии съобщиха, че Microsoft
Коментари Харесай

Microsoft временно блокира достъпа на своите служители до ChatGPT на корпоративните устройства поради съображения за сигурност

На 10 ноември 2023 година профилирани медии оповестиха, че Microsoft краткотрайно е блокирала достъпа на всички чиновници до ChatGPT на корпоративните устройства, заради проблеми със сигурността на данните. След известно време блокирането беше анулирано.

Според представители на компанията, експерти по осведомителна сигурност от ИТ-отдела са провеждали проби за блокиране на страничните AI-услуги, „ с цел да подсигуряват, че извънредно сензитивните корпоративни данни остават предпазени “, само че вместо няколко възела в корпоративната мрежа, те инцидентно започнаха да филтрират достъпа до ChatGPT и Canva за всички чиновници.

Служителите получиха предизвестие при опит за достъп до уеб страниците на странични AI-услуги от корпоративните устройства, че достъпът е блокиран от админите.

Източник в компанията сподели пред медиите, че филтрирането на достъпа е било инцидентно приложено към всички чиновници по време на тестването и не допуска непрекъсната смяна в кооперативната политика за осведомителна сигурност. Microsoft също по този начин предлага на чиновниците си да употребяват личния фирмен чатбот на компанията — Bing Chat, който е основан на модела GPT-4. Компанията напомни, че услугите Bing Chat Enterprise и ChatGPT Enterprise обезпечават по-високо равнище на дискретност и отбрана.

През октомври Космическото командване на Съединените щати (SPACECOM) забрани на всички чиновници на отдела да употребяват каквито и да е невронни мрежи в формалните си действия, в това число и огромните езикови модели като ChatGPT, Bard и чатбота Bing. Това беше направено заради опасения от приключване на секретна информация.

През юли 2023 година Adobe блокира достъпа до всевъзможни чат-ботове с изкуствен интелект на своите чиновници на работното им място от съображения за сигурност.

Гугъл също изпрати предизвестие до чиновниците си да употребяват чатботовете с нараснало внимание, в това число и фирмения Bard. Компанията прикани чиновниците да не споделят поверителни данни с чатботовете Bard и ChatGPT. Гугъл изясни, че способността на AI да се учи от потребителските поръчки и отговори може да докара до приключване на избрани фирмени данни, в това число и поверителна информация.

През май Apple забрани на чиновниците си да употребяват ChatGPT, както и други чатботове и генеративни платформи с изкуствен интелект по време на работните си процеси, заради опасения за сигурността на данните.

Samsung също първо ограничи и по-късно изцяло забрани на чиновниците си да употребяват ChatGPT, Гугъл Bard и чатбота Bing на работните си устройства.

Ето по какъв начин в действителност всеобщо огромните софтуерни компании подхващат превантивни дейности за отбрана на корпоративните и чувствителни данни. Това е изключително неотложно и е знак, че даже и елементарните консуматори би трябвало съществено да внимават, каква информация споделят с основаните на изкуствен интелект чатботове.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР