Необходими са ограничения, които да гарантират, че AI се използва

...
Необходими са ограничения, които да гарантират, че AI се използва
Коментари Харесай

Обмислят сертифициране на рискови AI модели


Необходими са ограничавания, които да подсигуряват, че AI се употребява отговорно
(снимка: CC0 Public Domain)

Нарастват опасенията, че изкуственият разсъдък може да се употребява за дискриминация или разпространяване на злонамерена информация. Ето за какво администрацията на президента на Съединени американски щати Джо Байдън стартира да изследва нуждата от тестване и узаконяване на AI принадлежности като ChatGPT.

Министерството на търговията на Съединени американски щати излезе с публично изказване по отношение на нуждата от узаконяване на евентуално рискови нови модели на изкуствен интелект, преди да бъдат пуснати, заяви Уолстрийт Джърнъл.

„ Знаем, че би трябвало да сложим някои ограничавания, с цел да сме сигурни, че AI моделите се употребяват отговорно ”, сподели Алън Дейвидсън, началник на Националната администрация по телекомуникации и информация към Министерството на търговията на Съединени американски щати. 60 дни са планувани за публично разискване на този въпрос.

Миналата седмица Джо Байдън разиска тематиката в Белия дом с съвещателен съвет, включващ представители на Microsoft и Гугъл. Попитан от кореспондент дали AI технологията е рискова, Байдън отговори: „ Това следва да забележим. Може би ”.
още по темата
Microsoft, Гугъл и други компании за изкуствен интелект обявиха, че непрестанно актуализират ограниченията за сигурност, в това число програмиране на чатботове, тъй че да не дават отговори на избрани въпроси.

„ Вярваме, че мощните AI системи би трябвало да бъдат обект на строги оценки на сигурността ”, съобщи в блога си разработчикът на ChatGPT – компанията OpenAI. „ Необходима е регулация, с цел да се подсигурява възприемането на такива практики и ние интензивно се ангажираме с държавното управление в най-хубавата форма, която може да одобри такава регулация ”.

При неналичието на федерален закон, регулиращ потреблението на AI системи, някои държавни организации употребяват съществуващите законови лостове.

Антитръстовото поделение на Министерството на правораздаването съобщи, че следи конкуренцията в бранша, а Федералната комерсиална комисия предизвести фирмите за правните последствия от отправянето на погрешни или голословни изказвания по отношение на AI продуктите.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР