Важно е да изградим доверие в технологиите и, за да

...
Важно е да изградим доверие в технологиите и, за да
Коментари Харесай

Ева Майдел: Важно е да изградим доверие в технологиите

Важно е да изградим доверие в технологиите и, с цел да съществува това доверие, ни трябват верни стандарти, защитни ограничения за системите, етичен кодекс за хората, които ги конструират и ги употребяват. Това съобщи евродепутатът Ева Майдел  Ева Майдел Ева Майдел е български евродепутат от ГЕРБ. Родена е на 26 януари 1986. Завършила е бакалавър по (ЕНП), член на комисиите на Екологичен потенциал по индустрия, проучвания и енергетика и на специфичната комисия по въпросите на изкуствения разсъдък в цифровата епоха, по време на уебинар "Изкуствен разсъдък: благоприятни условия, провокации и нравственос " с присъединяване на евродепутати и специалисти, проведен от Бюрото на Европейския парламент в България, съобщи Българска телеграфна агенция.

Трябва да имаме доста надеждни системи за изкуствен интелект, жителите не могат да видят цялостния капацитет на една технология, в случай че ѝ нямат доверие, разяснява Майдел. По думите ѝ е значимо да се даде опция на нововъведенията да се случват, само че и да бъдем защитени, когато има избрани опасности. Майдел означи, че специфичната комисия има опция да изследва и провокациите, и рисковете, и опциите, да се съветва с всички заинтригувани страни за краткосрочните и дългосрочите цели на изкуствения разсъдък, като най-после ще излезе с заключителен отчет с рекомендации.

Тя акцентира, че хората вземат решение за какви цели се употребява изкуственият разсъдък и уточни, че той може да е извънредно приобщаващ - да вземем за пример гласовите асистенти, които оказват помощ на хората с повредено зрение да употребяват смарт телефоните. Затова би трябвало да се сътвори тази рамка, с цел да може развиването да бъде градивно, уточни Майдел.

Евродепутатът означи като приоритет това повече предприятия да имат опция са се възползват от големия размер от индустриални данни, с цел да им помогне да порастват, да вършат нови артикули, да усъвършенстват своите производства. Тя разяснява още, че в България има добре развъртян ай ти бранш, който се ангажира да усилва цифровите умения на обществото, и уточни, че и в просветителната система часът по компютърна просветеност не би трябвало да се лимитира единствено до това по какъв начин се употребяват уърд и ексел, а да се разшири и до тематики като какво значат данните и изкуственият разсъдък.

Ясмина Якимова, пресаташе в Екологичен потенциал, напомни, че се чака при започване на идната година Европейска комисия да показа законодателно предложение за изкуствен интелект, като методът е насочен към индивида и към зачитането на европейските цености и правила. От началото на мандата на новата Европейска комисия се приказва доста за цифровата трансфорация и това е един от целите на Европейски Съюз, означи тя. Европейският метод се основава на три съществени стълба - технологии, които са от изгода на европейските жители, насърчаване на технологии в интерес на предприятията и технологии в интерес на околната среда и демокрацията. Смята се, че надеждният изкуствен интелект може да донесе доста изгоди и в здравното обслужване, за безвреден и чист превоз, за по-евтина и устойчива сила, да помогне на промишлеността. Якимова означи, че общественото и икономическо пространство ще бъде доста променено. В същото време характерностите на изкуствения разсъдък, в това число оперативната неяснота и отчасти самостоятелно държание, водят до нови евентуални опасности, това развиване поражда етични и правни въпроси и законодателите на Европейски Съюз търсят метод да насърчат и контролират изкуствения разсъдък, разяснява тя.

Якимова напомни, че на 20 октомври Екологичен потенциал е приел три отчета, два от които законодателни, които обрисуват по какъв начин Европейски Съюз може да регламентира изкуствения разсъдък, тъй че да се насърчат нововъведенията, да се наложат етични и правни стандарти и да дефинира правата върху интелектуалната благосъстоятелност. Първият отчет се отнася до етичните правила и правните отговорности при създаването и потреблението на изкуствен интелект - постоянно да има човешки контрол, сигурност, да се подсигурява недискриминацията и избягването на предубеждения, отбрана на съществени права. Вторият отчет е за носенето на отговорност при породени вреди от изкуствен интелект, като се приканва за нова, насочена към бъдещето, правна рамка. Сред предложенията са операторите да бъдат лицата, които да се държат виновни в случаи на вреди, нанесени от такива технологии, както и да има застраховка за такива технологии, които употребяват изкуствен интелект, за гарантиране на спомагателна отбрана. Третият отчет, който не е законодателен, обръща внимание на правата върху интелектуалната благосъстоятелност, в това число и разграничаване сред произведения, основани от хора благодарение на изкуствен интелект и на такива, основани единствено от изкуствен интелект.

Джеймс Ийгър, старши съветник в Центъра за тактики и услуги за оценка на въздействието, разяснява опциите и огромния диапазон от вероятни приложения на изкуствения разсъдък на разнообразни равнища. Ползите за компаниите да вземем за пример могат да бъдат както във връзка с ефикасността, в стопански проект, във връзка с клиентите и на служащите. В макроикономически проект изгодите могат да се следят във връзка с работливост, нововъведения, напредък, основаване на работни места. В по-голям мащаб има огромни благоприятни условия в области като опазване на здравето и околна среда. Той очерта и някои от провокациите, свързани с потреблението на изкуствен интелект, като да вземем за пример изгубване или адаптиране на някои от специалностите, както и етични и правни провокации, свързани със сигурността, персоналния живот, бистрота, дискриминация, отговорност и др.
Източник: novini.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР