Изпреварва ли развитието на новите технологии тяхната регулация и какви

...
Изпреварва ли развитието на новите технологии тяхната регулация и какви
Коментари Харесай

Какви законови промени за изкуствения интелект подготвя Евопейския парламент?

Изпреварва ли развиването на новите технологии тяхната регулация и какви законови промени са нужни в областта на изкуствения разсъдък - тематиката беше във фокуса на пленарната сесия на Европейския парламент тази седмица.
Прочетете още
Днес Екологичен потенциал одобри нови правила за изкуствения разсъдък, а се чака следващата година да се одобри и цялостен закон. 

 

Евгения Атанасова беседва с докладчика в тази сфера в Екологичен потенциал - румънския евродепутат Драгош Тудораче от Парламентарна група " Обнови Европа ", съобщи Българска национална телевизия.

- Г-н Тудораче, Екологичен потенциал основава законодателство, което да контролира Изкуствен Интелект. Не от дълго време водачи от водещите компании в тази промишленост приканиха за понижаване на темпото на развиване, даже пауза. Какви са най-важните въпроси, които би трябвало да бъдат контролирани незабавно?

- Подходът, който подхващаме в Европейски Съюз с това законодателство, е да не осъждаме цялата технология. Много значимо е да се разбере, че не контролираме самата технология на изкуствения разсъдък. Избрахме така наречен " учреден на риска " метод. Идентифицираме някои приложения на изкуствения разсъдък и ги групираме по категории според от типа риск и степента на този риск – опасности за нас като хора и за обществото. Посочваме кои приложения на изкуствения разсъдък са неразрешени на европейския пазар, тъй като носят съществени закани за нашия интерес и не желаеме да ги допуснем в Съюза. Ще дам един образец – подобен е „ обществения рейтинг “, изкуствен интелект, употребен всеобщо в Китай против ползите на жителите. Не желаеме такова нещо да се ползва за нашите жители в тяхното взаимоотношение с страната. Или да вземем за пример - изпреварващ полицейски надзор – това още веднъж демонстрира дискриминация против избрани групи и общности. Това са два образеца за типа забрани, които вкарваме с текста.

Втората категория високорисков изкуствен интелект няма да бъде неразрешена сама по себе си (ще бъде разрешена на пазара, само че при осъществяване на някои отговорности от основателите на приложенията или на ползвателите на приложенията). Тези отговорности са свързани най-много с прозрачността, която считаме, че е значима за нашите жители, с цел да имат доверие. Ако те не имат вяра на тази технология и на нейното взаимоотношение с техния живот и ползи, няма да я употребяват. В обществото ще има запаси към нея. А ние не желаеме това.

Изкуственият разсъдък е технология, която може да ни оказва помощ. Да оказва помощ на стопанската система ни, на обществото ни, с цел да напредваме и да усъвършенстваме голям брой стопански процеси. Като политици и законотворци считаме, че имаме задължението да осигурим изясненост и правила, тъй че тази технология да може да се развие в бъдеще и да се употребява с цялостното доверие на нашите жители.

- Това законодателство към кого е ориентирано – към развиването на ИИ или би трябвало да резервира хората, техните права и персонална информация от него?

- Преди всичко споделяме, че това законодателство е с фокус върху индивида. Като споделяме това, имаме поради, че първата цел на законодателството е да отбрани ползите ни като човешки същества, ползите на цялото ни общество от непозволено потребление на изкуствения разсъдък. Междувременно има и втора цел, която не би трябвало да се пренебрегва. Това е задачата за поощряване на нововъведенията. Както споделих, изкуственият разсъдък е технология, която може да помогне за растежа на стопанската система. Намираме се в цифрова стопанска система, в която данните са логаритми, които показват доста евентуални изгоди – в опазването на здравето, при усъвършенстване на ръководството на сериозни запаси и така нататък Това развиване също би трябвало да бъде поощрено. Но по какъв начин? В следена среда, с ясни правила – какво може да се прави и какво не може. Това е методът, който сме подхванали, с цел да намерим баланс сред интереса да предпазим и интереса да насърчим.

- Питам се по какъв начин би трябвало да бъде открит най-хубавият баланс, тъй че да не бъде възпрепятствано развиването на цифровите технологии, само че въпреки всичко да имаме цялостен надзор над умните машини?

- Търсим най-хубавият баланс. Ще дам някои съответни образци. Възлагаме развиването на механически стандарти. Те имат за цел да оказват помощ на промишлеността да разбере разпоредбите, да ги съблюдава по-добре и да приспособява развиването на изкуствения разсъдък. Така че разпоредбите да се съблюдават, да не се пречи на развиването и еволюцията. Ние реализираме доста ясно и крепко ръководство и правоприлагане. Така че когато се нарушават разпоредбите, това ще бъде тествано, разследвано и ще бъдат подхванати незабавни дейности, тъй че тези приложения да не се оферират на нашия пазар. При нужда ще се постановат наказания. Това сме се пробвали да реализираме при съставянето на текст, който гласуваме. Надяваме се да получим мандат да продължим с договарянията. Но се надявам този баланс да бъде предпазен при гласуването.

- Доколко това законодателство се отнася към дезинформацията и заканите пред националната сигурност?

- Националната сигурност и защитата са изключени от приложното поле на този правилник, тъй като според Договорът за Европейски Съюз те не попадат в компетенциите на Европейски Съюз. Така че този правилник не преглежда потреблението на изкуствен интелект във военната област или националната сигурност, само че преглежда потреблението на ИИ в правоприлагането. Там има ясни правила какво може и не може да се прави. В това отношение методът ни е доста внимателен.

Дезинформацията е доста значима област. Тя не беше включена в предлагането на Комисията. Тук в Парламента включихме в категориите високорисковото приложение на ИИ, приложенията, които се употребяват в избирателен подтекст и в политически подтекст. Защо? Защото виждаме, че има сериозен риск изкуственият разсъдък да бъде употребен и наподобява има мощна интервенция в „ дълбинните имитации “. Това може да мултиплицира дезинформацията при липса на съответен надзор. Затова сме присъединили този тип изкуствен интелект във високорисковата категория, с цел да има повече бистрота и уточнения на действието му. Това дава на регулаторите опция да ревизират, да инспектират и както споделих, да наложат наказания, при нужда. Искаме нашите демокрации също да бъдат предпазени от изкуствения разсъдък. Затова подхващаме тези стъпки.

- Някои от страните членки към този момент имат тяхно законодателство по тематиката. Трябва ли то да бъде хармонизирано и да бъде общо за Европейски Съюз?

- Това е правилник и като подобен е директно използван във всички страни членки. Честно казано, не съм осведомен с националното законодателство, което към този момент е признато. Но в случай че има такова законодателство, регламентът, който изготвяме, ще стане норма за всички страни членки.

- В кои сфери смятате, че развиването на ИИ би трябвало да продължи да бъде насърчавано и в кои би трябвало да бъде забавено или спряно?

- Освен секторите, които изброих, в които би трябвало да се забрани – те са много лимитирани – единствено шест области, в които ще има възбрана – считам, че във всеки различен аспект Изкуственият Интелект би трябвало да бъде насърчаван. Защо? Защото показва изгоди във всички сфери – опазване на здравето, превоз, земеделие, безусловно във всеки бранш на стопанската система. Или във всяка активност на нашето общество. ИИ може да бъде от изгода.

Не считам, че би трябвало да даваме политически или законодателен сигнал, че развиването на изкуствения разсъдък би трябвало да се забави или да спре, с изключение на тези изключения и приложения, които са неразрешени. Отново виждаме капацитета, само че в това време във високорисковите области това развиване би трябвало да се придържа към някои граници, които ще ни дадат гаранции против евентуална корист, както и против евентуално независимо действие и приложение на ИИ, което може да излезе отвън надзор.

- Вече е реалност, че ИИ има и мощен обществен резултат, към този момент се усеща въздействието от него върху някои специалности, които се трансформират доста, визира и работните места. Как да бъде непокътнат общественият баланс посредством законодателството?

- Това е доста значима тематика. Ако се върнем обратно в историята, всяка индустриална гражданска война е повлияла на работните места. Малцина осъзнават, че ИИ ще окаже даже по-дълбоко влияние, тъй като ще засегне съвсем всеки тип работа, освен в някои браншове, както се случи при други индустриални революции в предишното. При появяването на роботите беше наранена работата във фабриките, поточните линии, само че в по-малка степен другите типове действия. Докато изкуственият разсъдък ще участва в съвсем всяка сфера на активност. Трябва да се научим да се приспособяваме към това.

Не съм от хората, които считат, че всички ще останем без работа. Със сигурност ще трансформира доста работни места, такива, каквито ги знаем сега. Това значи, че държавните управления и страните имат отговорност да стартират да приготвят жителите. Трябва да стартират да премислят просветителната система, да мислят по какъв начин да включат наличната работна мощ в стратегии за преквалификация, с цел да се научат да съжителстват с изкуствения разсъдък на работното им място.

- Трябва ли да бъде разрешено и обезпечено свободното придвижване на артикули, основани на ИИ, сред границите в Европа?

- Със сигурност. Ние сме обединен цифров пазар. Следователно, не би трябвало да има граници пред циркулацията и развиването на изкуствения разсъдък. Напротив, би трябвало да създадем всичко допустимо. Работим в Парламента по този текст и се опитваме да заложим оптимално доста гаранции, че няма да има граници сред страните членки при създаването. Това се следи и при друго законодателство в предишното като Общия правилник за отбрана на данните. Наличието на национални ограничавания не е дейно. Ако започваща компания в България създава приложение и желае да го пусне на пазара в други страни членки, няма потребност от спънки, които да я стопират да употребява капацитета на целия обединен цифров пазар. Мисля, че това е в полза на нашите компании и би трябвало да го насърчаваме.

- Трябва ли да се обърне особено внимание и да се одобряват регулации за артикули, идващи от страни отвън Европейски Съюз?

- Тук се демонстрира резултатът " Брюксел ". Ние сме първата пълномощия в света, която вкарва правила за изкуствения разсъдък. Много евентуално е това законодателство да бъде употребявано като модел за други пазари. Ако успеем да реализираме уеднаквяване на разпоредбите и стандартите, свързани с ИИ, което се надявам да се случи, то няма да има значение дали си на европейския пазар, американския пазар, японския пазар. Защото стандартите ще бъдат уеднаквени. Но до момента в който се случи това уеднаквяване, всяка компания отвън Европейски Съюз, която желае да предлага свои основани на ИИ артикули на пазара на Европейски Съюз, ще би трябвало да съблюдава тези правила.

- Страхувате ли се, когато децата Ви употребяват изкуствен интелект?

- Със сигурност съм угрижен. Страх е прекомерно мощна дума. Не би трябвало да се опасяваме, в случай че одобряваме съответни правила. Ако нямахме правила, щях да се опасявам много. Ние в Европейски Съюз поемаме вярната отговорност в верния миг в историята да изготвим тези правила, въпреки че другите към момента не го вършат. Но съм уверен, че други юрисдикции скоро ще стартират да обмислят правила, като последват образеца ни. Без тях технологиите, оставени без каквито и да е ограничавания, могат да нанесат вреди, което е причина за опасения.
Източник: trafficnews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР