Когато изкуственият интелект взема решения, това вече касае живота на

...
Коментари Харесай

Кой ще е отговорен, ако изкуственият интелект е безотговорен?


Когато изкуственият разсъдък взема решения, това към този момент касае живота на разнообразни хора – а кой поема отговорността? (снимка: CC0 Public Domain)

Ежедневно взаимодействаме с логаритми, които с времето плануват нашите дейности и ни дават информация за взимане на решение. Филтрите за нежелана поща в имейлите, технологиите за цифрови карти и навигация, лицевото различаване по време на фотография със смарт телефон – това са единствено част от образците за ежедневното потребление на AI технологии, които прибавят улеснение в живота ни. Но кой носи отговорност, в случай че тези логаритми сгрешат?

Много се приказва за изкуствения разсъдък, изключително откогато взе да печели състезания за картини, музика и други форми на изкуство. Но може би нещо, което би трябвало да се разисква по-често дружно с тази тематика, е етиката при изкуствения разсъдък. Решенията, взети от AI, са резултат от логаритми, данни и бизнес-процеси. Как тогава може да се подсигурява отговорно отношение, къде са етичните съображения?

Анатомия на логаритмите

Изключително значимо е да разберем, че анализите, машинното самообразование и AI учат предишното, с цел да вземат решения за бъдещето. Ако данните от предишното са изкривени, то и решенията за бъдещето ще са изкривени. Ако данните за предишното страдат от непълнота в обещано отношение, техният разбор ще докара до бъдещи решения, които също страдат от непълнота – и това може да има непредвидени последствия.

Анализът на логаритмите не схваща нашите цели като обществото. Когато се стремим да подобрим опазването на здравето, правораздаването, икономическия напредък и околната среда, ние се стараем да балансираме с всички фактори – да не ощетяваме бедните, да не сътворяваме неравнопоставеност и така нататък Всяко решение се изпипва в подтекста на нашите полезности като общество. За логаритъма обаче няма такива стойност като почтеност, правдивост, достолепие.

От друга страна, анализите, машинното образование и AI стават необятно публикувани в обществото и техните автоматизирани решения се вземат поради параметрите на огромни популации. В същото време обществото е необикновено динамично и е в развой на непрекъсната смяна. Това значи, че AI би трябвало да бъде в положение на непрестанно образование. Всеки, който създава технология, която автоматизира решения за другите, би трябвало да носи отговорност за спазването на главните правила на виновния неестествен разсъдък, което да води до транспарантни и обективни резултати.

Организации от разнообразни промишлености показват възходящо терзание за отговорността при взимане на автоматизирани решения, за тяхната правдивост, обществен подтекст, адекватност.

Но по какъв начин да внедрим виновен AI

Контекстуализирането на правилата е една от първите стъпки в усилието за основаване на „ рационален “ неестествен разсъдък. Важно е при създаването да са ясни полезностите и целите, под чиито байрак се основава системата на база AI. Това ще помогне за връзката с всички хора, участващи в създаването, внедряването и потреблението на AI системата, всички в една и съща рамка.
още по темата
Експертите поучават етиката в създаването на изкуствения разсъдък да се повери в ръцете на екип, който ясно осъзнава тази отговорност. Това може да е дребен екип, отдаден на операционализирането на правилата на виновния AI. Той следва да има грижата да работи с всички отдели, свързани със основаването на AI системата, и на всеки стадий от виталния цикъл на AI. Решението да се образува екип е по-добро от това да се разчита на един човек, тъй като екипът предлага многообразие и набор от умения, предпазвайки от самостоятелни пристрастия.

Създателите на AI биха могли да преразгледат ролята на етиката от позиция на стадиите от виталния цикъл на технологията. Отговорното отношение би трябвало да бъде вплетено на всяка стъпка: събиране на данни, подготовка на данни, моделиране и тестване, създаване, произвеждане и настоящ мониторинг.

Регулациите ще закъснеят

Съветът на експертите към всички, които създават системи с неестествен разсъдък, е да подхващат тези стъпки за нравственос на изкуствения разсъдък още през днешния ден. Нормативните регулации ще се появят – рано или късно. Но, както постоянно в софтуерния свят, законотворчеството върви след нововъведенията.

Изпреварването на регулациите е скъпо – когато те станат факт, организацията, която към този момент е подходила отговорно, ще има преднина. От друга страна адаптирането на съществуващите практики за AI нравственос към бъдещите регулации ще бъде по-лесно, в случай че основите са положени овреме. Изчакването да се основат регулации за AI може да сътвори по-голям механически дълг, който ще съставлява тежест в бъдеще, предизвестяват експертите.
Източник: technews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР