Етиката при AI да се вгражда още при проектирането
Наличието на правилни набори от данни за образование на системите с неестествен разсъдък остава един от най-големите проблеми пред разработчиците (снимка: CC0 Public Domain)
При основаване на системи с изкуствен интелект бизнесът би трябвало да мисли за етиката през цялото време, когато стартира да концептуализира и създава AI решенията. Това ще помогне за виновното и независимо внедряване на AI инструментите.
В създаването на артикули с неестествен разсъдък следва да се ползва методът, прочут от света на сигурността. Там правилото „ сигурност още при проектирането “ води до нуждата от оценка на рисковете в самото начало. Така се заобикалят спиранията в работата и скъпото преоборудване на по-късен стадий.
Същият метод на мислене следва да се приложи и при създаването на AI артикули, споделя Кати Бакстър, основен проектант за етичните AI практики на Salesforce.com. Тя акцентира нуждата организациите да дават отговор на съществени стандарти за нравственос при основаването на AI.
Уроците от киберсигурността
Има доста уроци, които могат да се научат от промишлеността за киберсигурност, която се е развила единствено за няколко десетилетия, откогато първият злотворен програмен продукт се появи през 80-те години. За бранш, който даже не е съществувал до тогава, киберсигурността бързо трансформира метода, по който фирмите пазят своите системи, с акцент върху идентифициране на рисковете през цялото време и създаване на базови стандарти и разпореждания, които би трябвало да бъдат приложени.
още по темата
В резултат на това множеството организации ползват съществени стандарти за сигурност, които всички заинтригувани страни – в това число чиновници и сътрудници – би трябвало да съблюдават. Всички нови служащи, които постъпват в дадена организация, всекидневно минават през развой на насочване и образование. В рамките на тази подготовка компанията обрисува какво се чака от чиновниците във връзка с практиките за киберсигурност, като да вземем за пример потребление на мощна ключова дума и на VPN.
Същото би трябвало да се случва и във връзка с етиката в AI. Нещо повече, сериозните компании даже имат свои вътрешни екипи, които са отдадени напълно на този въпрос.
Отново като част от практиките за етично създаване на AI системи добра концепция е да има вътрешни запаси, които да оказват помощ на чиновниците да оценят дали дадена задача или услуга би трябвало да бъде изпълнена въз основа на насоките на компанията за нравственос – и да схванат къде са границите. Така да вземем за пример, обещано решение, обвързвано с цифровия маркетинг, не може да се употребява за различаване на лица. Съответно всеки член на отдела за продажби, който не е наясно с това и се пробва да продаде продукта като система с лицево различаване, ще се явява в нарушаване на политиките на компанията.
И тъкмо както практиките за киберсигурност биват постоянно преразглеждани и подобрявани, с цел да бъдат в крайник с изменящия се пейзаж на заканите, това би трябвало да се прави и с политиките, свързани с етиката на изкуствения разсъдък. Това е сериозно, защото обществата и културите се трансформират с течение на времето. Ценностите, считани за уместни преди 10 години, може към този момент да не са в сходство с възгледите на популацията през днешния ден. Затова AI продуктите следва да отразят измененията в мисленето.
Данните – основен проблем
Въпреки че съществуването на ясни и стройни политики би могли да смекчи някои опасности от изкривявания в AI, остават други провокации – по-специално достъпът до данни. Липсата на задоволителен размер или многообразие може да докара до неопределено показване на дадена промишленост или даден сегмент.
Това е доста предизвикателство за доста браншове и в доста страни. Когато AI моделите биват обучавани на база лимитирани набори от данни, основани на тясна подгрупа от популацията да вземем за пример, това може да повлияе на даването на съответните услуги и способността за правилно извършване на уговорките.
Донякъде решение може да бъде закупуването на данни от външни източници. Например, могат да се закупят лингвистични данни, които се употребяват за образование на чатботове. Друг вид е да се употребяват синтетични данни.
Що се касае до ролята, която регулаторите играят в ръководството на етиката на изкуствения разсъдък, налагането на безапелационни условия може да бъде мъчно, защото към момента има доста неясноти по отношение на качествата на изкуствения разсъдък и взаимоотношението му с индивида.
Справедливост – що е то
Един от огромните въпроси, когато става дума за нравственос и за регулации при AI, е що е правдивост. Определянето на това разбиране единствено по себе си е комплицирано. Могат да се намерят най-малко две дузини разнообразни дефиниции, всяка с друг колорит. И въпреки всичко това, което е заслужено за една група, неизбежно ще бъде по-малко заслужено за друга група хора.
Важно е да се разсее неправилното разбиране, че AI системите по дифолт са обективни, просто тъй като са машини и затова са лишени от пристрастия. Организациите и държавните управления би трябвало да положат старания, с цел да подсигуряват, че изгодите от изкуствения разсъдък са отмерено разпределени и че приложението му дава отговор на избрани критерии за отговорно основан синтетичен разсъдък.
Източник: technews.bg
КОМЕНТАРИ