Изкуственият интелект (AI) е вече тук и тепърва ще превзема

...
Изкуственият интелект (AI) е вече тук и тепърва ще превзема
Коментари Харесай

Има ли как да регулираме изкуствения интелект

Изкуственият разсъдък (AI) е към този момент тук и занапред ще завладява всеки аспект на живота ни. Това звучи както притеснително, по този начин и забавно, защото AI има голям капацитет да промени и усъвършенства доста от дейностите, които считаме за даденост.

Рисковете от технологията обаче не са за подценяване. Затова още занапред доста държавни управления и институции към този момент работят по основаване на ясни регулации за създаването и потреблението на AI и съответстващи технологии. Как обаче да регулираш нещо, което към момента не съществува в цялостната си форма и няма ясна визия по какъв начин ще се развие?

В момента неофициалното единодушие е, че е по-добре въпреки всичко да се стартира от някъде и да се положат основите, а с течение на времето всичко да се приспособява съгласно развиването на технологията. За задачата обаче ще се изисква сериозна еластичност и експедитивност от страна на институциите, което обичайно е слабото им място. Някои от тях се пробват да употребяват проблема точно, с цел да се научат да са по-навременни с дейностите си.

Така направи Китай. Страната стана първата в света, която одобри базови правила за създаването и потреблението на изкуствен интелект още през първата половина на тази година. Европейският съюз също се движи много бързо. По-рано тази годинатой показа своя Закон за изкуствения разсъдък (AI Act), който има упоритостта да одобри до края на тази година. Законът планува много правила и разделя умните логаритми на няколко категории съгласно типа и използването им. Съединени американски щати също обмислят свои правила.
Много хрумвания, малко изясненост
Още занапред проличава, че регулацията на AI ще сътвори много провокации за всички. Основната причина е, че липсва повсеместен поход. Първоначално ИТ промишлеността призоваваше за правене на единни правила, които да се съблюдават световно. В реалност обаче, няма да стане по този начин. Вижданията на страните още веднъж са много разнообразни и надлежно концепциите им за регулация отразяват това.

Организацията IEEE, която е виновна за направата и предлагането на доста от единните механически стандарти, които се употребяват от ИТ сектора по света, също предлага по какъв начин да се дефинира кои логаритми на какви правила да дават отговор. Тя споделя, че разпоредбите би трябвало да се дефинират първо съгласно равнището на риска на AI системите. За насочна точка се употребява стандарта IEEE 1012, който в действителност е от 1988 година и е за верификацията и валидацията на всевъзможни системи, програмен продукт и хардуер.

Той разделя рисковете на четири типа – пренебрежими, маргинални, сериозни и катастрофични. Също по този начин зависи и от честотата на тяхното осъществяване - рядко, понякога, евентуално и рационално постоянно. Всичко това се подрежда в таблица и за всяка категория се дава оценка от 1 до 4, като 4 е най-висока степен. Така съгласно IEEE елементарно може да се дефинира каква ще е степента на риск и вероятността за случването му за всяка AI разработка и да се приложат съответните правила за нея.
Да чакаме (не)предвидимото
ИТ браншът също не „ спи “. Той е наясно с рисковетеи обстоятелството, че е неизбежно част от AI системите да бъдат употребявани и за недобронамерени цели. Това си пролича изключително с възхода на известността и потреблението на генеративния AI – чатботове и системи за генериране на изображения и видеоклипове.

Pexels

Доста хора започнаха да основават така наречен дийпфейкове – фотоси, видеа и аудиозаписи, които слагат други лица в компрометиращи обстановки и изявления. Също по този начин се следи и растеж на кражбата на идентичност посредством дийпфейк и опити за измами с тях, в това число посредством показване за предприемачи. Дийпфейк наличие се употребява от ден на ден и за дезинформация по най-различни тематики, в това число политически и военни спорове.

Всичко това подкопава съществено доверието към AI, а надлежно и към евентуален бизнес за доста милиарди. Има и сериозен риск от нанасяне на тежки вреди и загуби поради дийпфейкове, а единствено с регулации и правила не става. Нужни са и технологии. Много компании, специалисти и организации към този момент създадоха системи, които да засичат AI наличие и да издават предизвестие за нараснала зоркост.

Ефективността и точността на тези принадлежности е към момента противоречива. Обаче още преди тяхната точност да се усъвършенства, те също бяха подкопани, оповестява 404Media. Оказва се, че инструментите бъркат освен в разпознаването на това дали дадена фотография е направена от AI, или не. Доста от тях настояват, че напълно действителни фотоси са дело на изкуствен интелект. Така се получава второ равнище на дезинформация, когато се посява подозрение даже и за действителната информация, споделя Хани Фарид, професор от Университета на Калифорния Бъркърли, един от водещите специалисти по цифрово манипулирани изображения.

Това разрешава на всеки да твърди, че обещано наличие е действително, или пък не, според от това, което му е угодно, и постоянно ще откри най-малко 2-3 инструмента, които да потвърдят тезата му. Дори и различен участник да покаже 4-5 инструмента, които я оборват, подозрението постоянно ще си остане.

Този проблем мъчно може да бъде решен и от регулациите. Така че колкото и правила да се вкарват, персоналната зоркост и сериозното мислене ще станат още по-важни в ерата на изкуствения разсъдък, в чиято зора към този момент сме.
Източник: darik.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР