Брюксел обмисля тристепенен подход към регулирането на генеративните модели и

...
Брюксел обмисля тристепенен подход към регулирането на генеративните модели и
Коментари Харесай

Брюксел ще въведе по-строги правила за изкуствения интелект в три стъпки

Брюксел обмисля тристепенен метод към регулирането на генеративните модели и системи с изкуствен интелект. Това излиза наяве от проектопредложение, представено от Bloomberg. В него написа, че трите стъпки ще открият правила за другите модели на основата.

Това са системите с изкуствен интелект, които могат да бъдат приспособени към разнообразни задания. Европейски Съюз ще изисква спомагателни външни проби за най-мощните технологии.

Европейският съюз евентуално ще е първата западна власт, която ще вкара наложителни правила за изкуствения разсъдък

Въпросното законодателство се споделя " AI Act " и съгласно него системите, които предсказват закононарушения или сортират кандидатури за работа, ще би трябвало да преминат през оценка на риска, наред с доста други условия. Най-общо категориите са три.
 70 на 100 от чиновниците по света към този момент употребяват изкуствен интелект в работата си
70 на 100 от чиновниците по света към този момент употребяват изкуствен интелект в работата си

Това демонстрира ново световно изследване на Adecco Group

Първата категория включва всички " Foundation models " - модел за машинно самообразование, трениращ с голям брой данни. Второто равнище на " доста способни " системи ще се отличава по количеството изчислителна мощ, употребена за образование на техните огромни езикови модели.

Трета категория, известна като огромни системи за изкуствен интелект с общо предопределение, ще включва най-популярните принадлежности за изкуствен интелект и ще се мери по общия брой консуматори.

Какво включват трите стъпки?

1. Всички основополагащи модели

Разработчиците на изкуствен интелект ще подлежат на условия за бистрота, преди да пуснат какъвто и да е модел на пазара. Те ще би трябвало да документират модела и процеса на неговото образование, в това число резултатите от вътрешните старания на " аления екип ", когато самостоятелни специалисти се пробват да подбуден моделите към неприятно държание. Освен това ще се прави оценка въз основа на стандартизирани протоколи.

Компаниите ще би трябвало да включат задоволително в детайли обобщение на наличието, което са употребявали за създаване на моделите си, и по какъв начин ръководят въпросите, свързани с авторските права, в това число като подсигуряват, че притежателите на права могат да се откажат от потреблението на тяхното наличие за образование на модели.

2. " Foundation models " с доста огромни благоприятни условия

Компаниите, които създават подобен диаметър технологии, ще се придържат към по-строги правила. Преди да бъдат пуснати на пазара, тези модели ще би трябвало да минават през постоянен " червен тим " от външни специалисти, които ще бъдат проверявани от новосъздадената Служба за изкуствен интелект на Европейски Съюз. Резултатите от тези проби ще се изпращат на тази организация.

Комапниите ще би трябвало да вкарат и системи за разкриване на систематични опасности. След като тези модели бъдат пуснати на пазара, Европейски Съюз ще задължи самостоятелни инспектори и откриватели да правят инспекции за сходство, в това число да ревизират дали фирмите съблюдават разпоредбите за бистрота.

3. Системи за изкуствен интелект с общо предопределение

Тези системи ще би трябвало да бъдат подложени на тест на " червен тим " от външни специалисти, с цел да се разпознават уязвимостите, а резултатите ще бъдат изпратени на Службата за изкуствен интелект на Комисията. Дружествата ще би трябвало да вкарат и система за оценка и понижаване на риска.

Европейски Съюз ще смята, че всяка система, която има 10 000 регистрирани бизнес консуматори или 45 милиона регистрирани крайни консуматори, е огромна GPAI - Global Partnership on Artificial Intelligence.

Компаниите могат да апелират статута си на огромна система с изкуствен интелект с общо предопределение и по същия метод Европейски Съюз може да накара други системи или модели да се придържат към тези спомагателни правила, даже в случай че не дават отговор на праговете, само че могат да породят опасности.

Независимо дали ще бъдат признати тъкмо тези, регулации къми зкуствения разсъдък в Европа сигурно ще има. И те няма да са дребни. Към днешна дата обаче Европейски Съюз към момента е изправен пред редица основни въпроси, свързани с метода към технологията, в това число по какъв начин тъкмо да контролира генеративния изкуствен интелект и да вземем за пример дали да забрани изцяло сканирането на лица онлайн в тълпи.
 Идват първите в света регулации на изкуствения разсъдък, които ще обиден и България
Идват първите в света регулации на изкуствения разсъдък, които ще обиден и България

От Европейския парламент в Страсбург пред Money.bg приказва евродепутатът Петър Витанов
Източник: money.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР