Липсата на определение за изкуствен интелект е разбираема, но също

...
Липсата на определение за изкуствен интелект е разбираема, но също
Коментари Харесай

AI: все повече опасения за потенциална дискриминация


Липсата на определение за изкуствен интелект е разбираема, само че също по този начин и проблематична
(снимка: CC0 Public Domain)

Приложението на изкуствения разсъдък в основни сфери от публичния живот като опазването на здравето и банковото дело може да докара до дискриминиране на избрани групи консуматори. Темата все по-често провокира паника у научните среди и бизнеса. Публикациите и анализите на откривателите сочат, че рискът от „ изкривявания ” е освен реален, само че и прекомерно евентуален.

Милиони долари се изразходват за създаване на програмен продукт за изкуствен интелект, който да автоматизира част от човешката работа. Надеждата е, че компютърният разум освен може да анулира доста от дейностите, в това число оцеляване съгласно стандартизирани критерии, само че и да спести човешки неточности. Оказва се обаче, че изкуственият разсъдък прави свои, компютърни неточности. А те могат да са определящи за основаването на нови типове неравенства.

Четене на рентгенови фотоси

Милиони долари се влагат в създаване на програмен продукт за изкуствен интелект, който да чете рентгенови фотоси и други мостри на образната диагностика. Надеждата е, че той може да забележи неща, които лекарите търсят, само че от време на време пропущат, като да вземем за пример рак на белия дроб. Ново изследване, за което оповестява, откри, че тези логаритми могат да видят и нещо, което лекарите не търсят: расата на пациента.

Авторите на проучването и други специалисти по медицински изкуствен интелект предизвестяват, че сходни резултати би трябвало да ни тревожат. Здравните логаритми следва да работят заслужено и еднообразно с хората с каквато и да е расова еднаквост.
още по тематиката
Доказателства, че логаритмите могат да разгадаят расата на база образна диагностика, водят началото си от проби върху пет типа изображения, употребявани в радиологичните проучвания, в това число рентгенови лъчи на гърди и ръце, както и мамографии. Изображенията са на пациенти, които са се разпознали като чернокожи, бели или азиатци.

За всеки вид фотоси откривателите са обучили логаритми, употребявайки изображения, обозначени с расата на пациента. След това учените захранили логаритмите за прогнозиране на расата на пациентите с разнообразни изображения без етикет.

Радиолозите нормално не смятат расовата еднаквост на индивида за забележима при рентгеновите фотоси, които „ гледат ” под кожата. И въпреки всичко логаритмите по някакъв метод са се научили да я откриват. При това с акуратност и за трите расови групи, също така и за другите позиции на тялото.

Дори най-зле работещият логаритъм е съумял да отгатне расата в 80% от случаите; най-хубавата разработка е дала 99 % акуратност. Резултатите и обвързваният с тях код бяха оповестени онлайн в края на предишния месец от група от повече от 20 откриватели с опит в региона на медицината и машинното образование, само че изследването към момента не е рецензирано.

Изнесените данни породиха нови опасения, че софтуерът за изкуствен интелект може да ускори неравенството в опазването на здравето. За този проблем изследванията демонстрират, че маргинализираните расови групи постоянно получават по-слаба грижа спрямо богатите или белите хора.

Банкиране и заеми

Подобно нещо може да се случи и в света на банките и застраховането. Банките, групи за отбрана на потребителите и мозъчни тръстове в Съединени американски щати неотдавна предизвестиха, че са налице „ евентуални клопки при потреблението на изкуствен интелект и машинно образование при взимане на решения за отдаване на заем ”.

Силата на предсказание при моделите за машинно образование може да усили евентуалните опасности „ заради по-голямата трудност на моделите и техния капацитет да изострят историческите разлики и дефекти в главните данни ”, съгласно откривателите от FinRegLab. AI и машинното образование могат да засилят моделите на дискриминация и финансово изключване.

Звучи доста витиевато? Базираният в Бостън американски Национален център за отбрана на потребителите беше надалеч по-откровен. Той предизвести в писмо от 1 юли до регулаторните органи, че „ потреблението на комплицирани, непрозрачни алгоритмични модели при транзакции с потребителски заеми усилва риска от противозаконна дискриминация и… измами и злоупотреби ”.

Юридическият център означи, че даже няма единно виждане по отношение на дефиницията на „ изкуствен интелект ”. Това единствено по себе си е извор на угриженост по отношение на метода, по който се употребява.

„ Липсата на определение за AI е разбираема, само че също по този начин е проблематична ”, написа групата. „ Възможно е да има неправилни догатки, че потреблението на AI наложително прави системата по-точна или предсказуема или че е безпристрастна и несъмнено обективна ”.

Регулации

Регулаторното ограничение на опциите за сходни „ неточности ” е предизвикателство. За основаването на нормативна база в тази област законотворците би трябвало да са пределно наясно с технологиите на изкуствения разсъдък. А неговото развиване е такова, че е мъчно да се планува какви обстановки биха могли да зародят.

На собствен ред регулаторите, които ще ползват новите правила, би трябвало да подсигуряват, че се съблюдават законите за заслужено отношение и че машинното образование не води до отвод на дадена услуга, заради аргументи като раса и пол.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР