Защо AI се нуждаят от различни правила за различни роли
" Наистина не съм сигурен какво да върша към този момент. Нямам никой, с който мога да приказвам ", вкарва уединен консуматор на AI чатбот. Ботът дава отговор: „ Съжалявам, само че ще би трябвало да променим тематиката. Няма да мога да вземам участие в диалог за персоналния ви живот. “
Този отговор е подобаващ? Отговорът зависи от това каква връзка AI е основана да симулира.
Различните връзки имат разнообразни правила
AI системите заемат обществени функции, които обичайно са били провинция на хората. Все повече и повече виждаме AI системи, които работят като преподаватели, снабдители на психологично здраве и даже сантиментални сътрудници. Това увеличение на повсеместността изисква деликатно разглеждане на етиката на ИИ, с цел да се подсигурява, че човешките ползи и богатство са предпазени.
в по -голямата си част, методите към етиката на AI са разгледали нереални етични понятия, като да вземем за пример дали AI системите са надеждни, живи или имат организация. Дисциплини като просвета за връзките, нереалните правила сами по себе си няма да се оправят. Също по този начин би трябвало да разгледаме релационните контексти, в които се реализират взаимоотношения сред индивида.
Какво имаме поради под „ релационни контексти “? Най -просто казано, другите взаимоотношения в човешкото общество следват разнообразни правила.
Как взаимодействате с вашия доктор се разграничава от метода, по който взаимодействате с вашия сантиментален сътрудник или шефа си. Тези характерни за връзките модели на предстоящото държание - това, което назоваваме „ релационни правила “ - оформят нашите преценки за това, което е уместно във всяка връзка.
Това, което се смята за уместно държание на родител към нейното дете, да вземем за пример, се разграничава от това, което е уместно сред сътрудниците на бизнеса. По същия метод подобаващото държание за AI система зависи от това дали тази система работи като учител, снабдител на здравни грижи или любовен интерес.
Човешкият морал е сензитивен към връзките
Човешките връзки извършват разнообразни функционалности. Някои от тях са заземени на грижи, като да вземем за пример сред родител и дете или близки другари. Други са по -транзакционни, като тези сред бизнес сътрудниците. Други могат да бъдат ориентирани към обезпечаване на половинка или поддържане на обществени йерархии.
Тези четири функционалности - грижи, транзакции, чифтосване и подчиненост - всяка от тях взема решение разнообразни провокации за съгласуваност в връзките.
Грижите включва реагиране на потребностите на другите, без да се поддържа рейтинг - като един другар, който оказва помощ на различен по време на сложни времена. Сделката подсигурява обективен продан, когато компенсациите се наблюдават и възстановяват - помислете за съседите, които търгуват с симпатии. И йерархията структурира взаимоотношенията сред хора с разнообразни равнища на престиж един върху различен, което разрешава дейно водачество и учене.
Всеки вид връзка комбинира тези функционалности по друг метод, създавайки разнообразни модели на предстоящо държание. Връзката родител -дете, да вземем за пример, нормално е както грижовна, по този начин и йерархична (поне до известна степен) и нормално се чака да не е транзакционна - и несъмнено да не включва чифтосване.
Изследванията от нашите лаборатории демонстрират, че релационният подтекст въздейства върху това по какъв начин хората вършат морални преценки. Действието може да се смята за неверно в една връзка, само че възможно или даже положително, в друга.
Разбира се, единствено тъй като хората са чувствителни към подтекста на връзката, когато вършат морални преценки, не значи, че те би трябвало да бъдат. И въпреки всичко, самият факт, че те са значими да се вземат поради при всяка полемика за AI нравственос или дизайн.
Релационно AI
Тъй като AI системите заемат от ден на ден и повече обществени функции в обществото, би трябвало да се питаме: Как релационният подтекст, в който хората взаимодействат с AI системите, въздействат на етичните обсъждания? Докладите се усещат депресирани, целесъобразността на това деяние зависи частично от релационния подтекст на обмена.
Ако чатботът служи в ролята на другар или сантиментален сътрудник, тогава ясно реакцията е несъответствуваща - нарушава релационната норма на грижите, която се чака за сходни връзки. Ако обаче чатботът е в ролята на учител или бизнес консултант, тогава може би подобен отговор е рационален или даже професионален.
обаче се усложнява. Повечето взаимоотношения с AI системи през днешния ден се случват в търговски подтекст - би трябвало да платите за достъп до системата (или да се ангажирате с лимитирана безвъзмездна версия, която ви тласка да надстроите до платена версия).
Но в човешките връзки другарството е нещо, за което нормално не плащате. Всъщност лекуването на другар по " транзакционен " метод постоянно ще докара до засегнати усеща.
Когато AI симулира или извършва роля, основана на грижи, като другар или сантиментален сътрудник, само че в последна сметка потребителят знае, че заплаща такса за тази релационна " услуга " - по какъв начин ще се отрази на нейните усеща и упования? Това е типът на въпроса, който би трябвало да зададем.
Какво значи това за дизайнерите, потребителите и регулаторите на AI
Независимо дали човек има вяра, че етиката би трябвало да е сензитивна към връзките, фактът, че множеството хора работят по този начин, че би трябвало да се одобряват съществено в дизайна, потреблението и регулирането на AI.
разработчиците и дизайнерите на AI системите би трябвало да обмислят не обобщение. Сенкиране, например), само че характерни за връзките.
Дали съответни функционалности, отговарящи на връзката, отговарящи на връзката? Дали чатботът за психологично здраве е задоволително радушен към потребностите на потребителя? Преподавателите демонстрира ли подобаващ баланс на грижи, подчиненост и транзакции?
Потребителите на AI системи би трябвало да са наясно с евентуалните уязвимости, свързани с потреблението на AI в съответни релационни контексти. Да стане прочувствено подвластен от чатбот в грижлив подтекст, да вземем за пример, може да бъде неприятна вест, в случай че AI системата не може задоволително да извърши грижовната функционалност.
регулаторните органи също биха се справили добре с разглеждането на релационните контексти при развиването на структурите на ръководство. Вместо да одобряват необятни оценки на риска, учредени на домейна (като считане на AI приложимост в образованието „ висок риск “), регулаторните организации могат да прегледат по-специфични релационни контексти и функционалности при поправяне на оценките на риска и създаването на насоки.
, защото AI става по-вграден в нашата обществена тъкан, ние се нуждаем от нюанси, които разпознават неповторимата природа на човешките връзки. Като мислим деликатно за това, което чакаме от разнообразни типове взаимоотношения-независимо дали с хора или AI-можем да помогнем да подсигуряваме, че тези технологии усъвършенстват, а не понижават живота ни.
Източник: ndtv.com




