Италианската забрана е само началото на проблемите на ChatGPT. Проблемът

...
Италианската забрана е само началото на проблемите на ChatGPT. Проблемът
Коментари Харесай

GDPR диша във врата на изкуствения интелект и ChatGPT frognews.bg

Италианската възбрана е единствено началото на проблемите на ChatGPT. Проблемът назрява в целия блок, а опасенията варират от опасности за персоналните данни до дезинформация, киберпрестъпления, измами. OpenAI, организацията, основала ChatGPT, е ходеща цел - не разполага с административен център в ЕСы което значи, че органът за отбрана на данните на всяка страна членка може да стартира нови следствия и да наложи забрани.

Така се случи да вземем за пример с Гугъл - компанията получи голяма санкция от 50 милиона $ поради нарушаване на GDPR във Франция, преди американският софтуерен колос публично да централизира своята европейска правна конструкция в Ирландия. TikTok също беше изправен пред няколко следствия за нарушаване на поверителността в Холандия, Италия и Франция, преди законно да сътвори седалище в Ирландия през 2021 г. 

Не единствено поверителността кара AI системи като ChatGPT да будят опасения. В края на март млад белгиец се самоуби след седмици на диалози с ръководен от изкуствен интелект чатбот на име Елиза, заяви белгийският вестник La Libre. Миналия месец софтуерният магнат Илон Мъск, дружно с хиляди специалисти по изкуствен интелект, приканиха за прекъсване на развиването на ChatGPT поради " дълбоки опасности за човечеството “.

Европейските законодатели приготвят план на Закон за изкуствения разсъдък на Европейски Съюз, с цел да се оправят с купищата провокации. Липсата на такова към сегашния миг обаче насърчи регулаторите за отбрана на данните да се намесят.

Регулаторите за дискретност постановат GDPR, в това число неговите правила по отношение на събирането на данни и отбраната на потребителите против автоматизирано взимане на решения. Компании като OpenAI би трябвало да имат правно съображение за събиране и потребление на персонални данни, да бъдат транспарантни за това по какъв начин употребяват данните на хората, да поддържат персоналните данни точни и да дават на хората право на промяна.

 

OpenAI в никакъв случай не е разкривал какъв набор от данни е употребявал за образование на AI модела, който е в основата на чатбота. Дори откриватели от Microsoft, който е основният вложител на OpenAI, споделиха в скорошен документ, че " не са имали достъп до цялостните детайлности.
Източник: frognews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР