Войната започна с един-единствен туит през ноември 2019 г. в

...
Войната започна с един-единствен туит през ноември 2019 г. в
Коментари Харесай

Рисковете, породени от Изкуствения интелект вече са реални

" Войната " стартира с един-единствен туит през ноември 2019 година в който Дейвид Хайнемайер Хансон, прочут софтуерен бизнесмен, атакува неотдавна пуснатата кредитна карта на Apple, наричайки я „ сексистка “, тъй като предлага на жена му кредитен предел 20 пъти по-нисък от неговия.

Твърденията се разпространиха като горски пожар, като Хансън акцентира, че изкуственият разсъдък – в този момент необятно употребен за взимане на решения за разпределяне на заеми – е отговорен. „ Няма значение какви са желанията на обособените представители на Apple, значимо е какво прави АЛГОРИТЪМЪТ, на който са се доверили изцяло. А това, което прави, е дискриминация.”

Въпреки че предходната година Apple и нейните застрахователи Goldman Sachs бяха дефинитивно оправдани от американските регулатори за нарушение на разпоредбите за заслужено кредитиране, това още веднъж възобнови по-широк спор към потреблението на AI в обществените и частните промишлености.

Политиците в Европейския съюз в този момент възнамеряват да вкарат първия изчерпателен световен закон за контролиране на Изкуствения разсъдък, защото институциите от ден на ден автоматизират рутинните задания в опит да покачат успеваемостта и в последна сметка да понижат разноските.

Това законодателство, известно като Закона за изкуствения разсъдък, ще има последствия оттатък границите на Европейски Съюз и сходно на Общия правилник за отбрана на данните на Европейски Съюз, ще се ползва за всяка институция, в това число банките в Обединеното кралство, които обслужват клиенти от Европейски Съюз.
`Рисковете,

В взаимозависимост от окончателния лист на Европейски Съюз с „ високорискови “ използва, ще бъдат въведни строги правила за това по какъв начин AI се употребява за пречистване на кандидатури за работа, университет или обществени помощи или – при положение на кредитори – оценка на кредитоспособността на евентуалните кредитополучатели.

Служители на Европейски Съюз се надяват, че с спомагателен контрол и ограничавания върху моделите, основани на Изкуствен разсъдък, които могат да се употребяват, разпоредбите ще лимитират самобитната дискриминация, основана на машини, която може да повлияе на решения, изменящи живота, като да вземем за пример дали можете да си позволите жилищен или студентски заем.

„ ИИ може да се употребява за разбор на цялото ви финансово положение, в това число разноски, спестявания, други задължения, с цел да се стигне до по-цялостна картина “, споделя Сара Коциански, самостоятелен съветник по финансови технологии пред Guardian. „ Ако са проектирани вярно, такива системи могат да обезпечат по-широк достъп до налични заеми. “

Но една от най-големите рискове е неволното користолюбие, при което логаритмите в последна сметка отхвърлят заеми или сметки на избрани групи, в това число дами, мигранти или цветнокожи. Част от казуса е, че множеството AI модели могат да се учат единствено от исторически данни, които са им били подавани, което значи, че те ще научат на кой тип клиенти са били давани заеми преди този момент и кои клиенти са били маркирани като ненадеждни.

„ Има заплаха те да бъдат предубедени във връзка с това по какъв начин наподобява „ положителният “ кредитополучател “, споделя още Коциански. „ Трябва да отбележим, че постоянно се открива, че полът и етническата принадлежност играят роля в процесите на взимане на решения от ИИ въз основа на данните с които разполага " машината ".
`Рисковете,

Някои модели са проектирани по този начин, че да не регистрират по този начин наречените предпазени характерности, което значи, че не са предопределени да регистрират въздействието на пол, раса, етническа принадлежност или увреждане. Но тези AI модели могат да дискриминират вследствие на разбор на други данни, като пощенски кодове, които могат да корелират с исторически необлагодетелствани групи, които в никакъв случай преди този момент не са кандидатствали, обезпечавали или изплащали заеми или ипотеки.

Така, когато даден логаритъм вземе решение, за човек е мъчно да разбере по какъв начин е стигнал до това умозаключение, което води до това, което нормално се назовава синдром на „ черната кутия “. Това значи, че банките, да вземем за пример, може да се затруднят да обяснят какво е можел да направи претендентът по друг метод, с цел да дава отговор на условията за заем или кредитна карта, или дали смяната на пола на претендента от мъжки на женски може да докара до друг резултат.

Законът за AI, който може да влезе в действие в края на 2024 година, ще бъде от изгода за софтуерните компании, които съумеят да разработят " по-надеждни AI “ модели, които са съвместими с новите правила на Европейски Съюз. Дарко Матовски, основен изпълнителен шеф и съосновател на основаната в Лондон започваща компания за изкуствен интелект causaLens, има вяра, че неговата компания е измежду тях.

Стартъпът, който започва обществено през януари 2021 година, към този момент е лицензирал технологията си за лицево различаване и редица банки са в развой на сключване на покупко-продажби с компанията, още преди разпоредбите на Европейски Съюз да влязат в действие. Предприемачът споделя, че causaLens предлага по-усъвършенствана форма на AI, която заобикаля евентуални пристрастия посредством отчитане и управление на дискриминационни корелации в данните.
`Рисковете,

Той има вяра, че разпространяването на по този начин наречените каузални AI модели като неговия личен ще докара до по-добри резултати за маргинализирани групи, които може да са пропуснали просветителни и финансови благоприятни условия. Матовски твърди, че единственият метод за отбрана против евентуална дискриминация е да се употребяват предпазени характерности като увреждане, пол или раса като вход, само че подсигурява, че без значение от тези характерни входове, решението няма да се трансформира.

Въпреки че новите правила на Европейски Съюз евентуално ще бъдат огромна стъпка в ограничението на пристрастията, основани на машини, някои специалисти, в това число тези от института Ada Lovelace, упорстват потребителите да имат правото да се оплакват и да търсят обезщетение, в случай че считат, че са били сложени в неравностойно състояние.

„ Регламентът за изкуствен интелект би трябвало да подсигурява, че хората ще бъдат уместно предпазени от щета посредством одобрение или неодобряване на използването на изкуствен интелект и, че ще има налични средства за правна отбрана, когато утвърдените системи за изкуствен интелект работят неизправно или водят до щета. Не можем да се преструваме, че утвърдените AI системи постоянно ще действат съвършено ", приключва специалистът.
Източник: fakti.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР