Технологиите, свързани с изкуствения интелект и използвани в публичния сектор,

...
Технологиите, свързани с изкуствения интелект и използвани в публичния сектор,
Коментари Харесай

Брюксел разработва нормативна уредба за изкуствения интелект

Технологиите, свързани с изкуствения разсъдък и употребявани в обществения бранш, би трябвало да бъдат контролирани и посредством високи стандарти. Европейските институции регистрират, че изкуственият разсъдък и автоматизираното взимане на решения могат да създадат някои неща по-сложни за потребителите. От друга страна е нужна бистрота и непоколебим надзор, с цел да не допусне корист с данните на потребителите. Това значи, че може да се изисква от фирмите да оферират повече информация за логаритмите, с които ръководят ИИ технологиите, както и за потоците от данни, които се обработват и популяризират от устройствата.

Защо изкуственият разсъдък може да съставлява опасност

Машинните логаритми могат да обработват масиви от данни с акуратност и експедитивност, които са непостижими за хората. Това прави приложенията, употребяващи изкуствен интелект, все по-популярни в области като финансите, опазването на здравето, образованието, правото и други.

Ако обаче липсва човешки надзор при вземането на решения, елементарно могат да зародят проблеми. Машините се учат да разпознават модели в бази от данни. Ако в данните са заложени избрани предубеждения, логаритмите не престават да ги възпроизвеждат в бъдеще.

Изкуственият разсъдък при вземането на решения

Изкуственият разсъдък от ден на ден се употребява за основаването на автоматизирани системи за взимане на решения. В доста случаи това има мощно отражение върху хората, които влизат в контакт с тези системи ˗ да вземем за пример, при разпределяне на заеми, при разглеждане на кандидатури за работа, при лекуване или по правни въпроси.

Автоматизираните системи могат да доведат до усилване и одобряване на обществени разделения. Например, открити са случаи с някои логаритми за наемане на работа, които дискриминират дамите.

Грижа за потребителите

Развитието на автоматизирани модели за взимане на решения повдига въпроси за това по какъв начин да се завоюва доверието на потребителите и да се подсигурява, че техните ползи са взети поради. Когато потребителите влизат в контакт с автоматизирани системи, те би трябвало да бъдат добре осведомени по какъв начин тъкмо действа логаритъмът.

Заместник-председателят на Европейската комисия (ЕК) и отговорник за цифровите политики Маргрете Вестагер разяснява пред Euractiv, че технологиите за изкуствен интелект ще бъдат предмет на настоящите правила на Европейски Съюз, ориентирани към обезпечаване на високи стандарти в региона на отбраната на персоналните данни, неприкосновеността на персоналния живот, отбраната на половете и расите и разпоредбите за отговорност за сигурност на продуктите. В същото време от Вашингтон се пробват да лобират в Европа за разбиране на един по-мек метод във връзка с бъдещото контролиране на високите технологии.

Европейска комисия подхваща по-строга линия в региона на изкуствения разсъдък, в сравнение с Съединените щати. Част от предлагането на Европейската комисия включва мораториум до пет години върху потреблението на технология за различаване на лица в публични зони, с цел да се даде време на общността да създаде логаритъм по какъв начин да се предотвратяват злоупотреби.

Изпълнителният шеф на Гугъл Сундар Пичай счита, че Deepfakes и технологиите за лицево различаване са най-важните проблеми, свързани с изкуствения разсъдък. "Deepfakes " съставляват видео или аудиоклипове, които са манипулирани благодарение на изкуствен интелект и които евентуално биха могли да бъдат основани от всеки и употребявани за всевъзможни цели.

Позицията на Европарламента

На 23 януари комисията по вътрешен пазар и отбрана на потребителите в Екологичен потенциал поддържа резолюция, която приканва Европейската комисия да обмисли какви ограничения са нужни, с цел да се подсигуряват правата на потребителите.

Депутатите желаят от Комисията да:

обезпечи механизми за отбрана на потребителите от несправедливи или дискриминационни търговски практики и от рисковете, произлизащи от услуги, които употребяват неестествен интелект;
подсигурява по-голяма бистрота на автоматизираните процеси;
направи нужното за потреблението единствено на висококачествени бази от данни, в които няма дискриминация.

„ Трябва да създадем нужното за гарантирането на отбраната и доверието на потребителите и за привеждането на разпоредбите на Европейски Съюз за сигурността и отговорността на продуктите към условията на цифровата ера “, съобщи ръководителят на парламентарната комисия по вътрешен пазар и отбрана на потребителите Петра де Сутер (Зелени/ЕСА, Белгия).

Следващи стъпки

Депутатите ще гласоподават по резолюцията на пленарното си съвещание по-късо този месец. След това тя ще бъде изпратена на Комисията и на страните членки в Съвета. Европейската комисия възнамерява да показа своите проекти за общ метод към изкуствения разсъдък на 19 февруари.
Източник: banker.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР