Между 2014 г. и 2017 г. Amazon се опита да

...
Между 2014 г. и 2017 г. Amazon се опита да
Коментари Харесай

Нима и роботите станаха сексисти?

Между 2014 година и 2017 година Amazon се опита да сътвори алгоритмична система за разбор на автобиографии, която да сортира най-хубавите претенденти за работа. Системата можеше да се назова Светия Граал на HR-a, в случай че в действителност работеше.

Но тя не работи.

След като компанията образова логаритъма въз основа на личните си данни за заетостта за предходните 10 години, се оказа, че логаритъмът проявява пристрастие към мъжете претенденти. Срещайки думата " жена ", той понижаваше рейтинга на претендента. Инженерите на Amazon се пробваха да решат този проблем, само че нямаше необикновен смисъл и планът беше преустановен.

Примерът е мотив да се замислим за евентуалната щета, която системите за автоматизирано набиране на персонал могат да причинят, в случай че се употребяват, без да се вземат поради обществените и правните последствия, които могат да се породят заради необяснимите решения на логаритъма.

Числата не постоянно споделят истината.

Марк Жируа, юрист по трудово правно отношение в Nilan Johnson Lewis, твърди, че негов клиент се е отказал да закупи сходен инструмент за скрининг, откакто разбрал как алгоритъмът приоритизира CV-тата. След обстоен разбор се оказало, че системата отдава желания на претенденти, чието име стартира с Джарет и са играли лакрос в гимназията. 

" Това е в действителност отличен индикатор за някои от проблемите с тези системи - резултати са толкоз положителни, колкото са данните, които залагате в логаритъма ", споделя Жируа. " Вероятно е имало статистически значима връзка сред тези два фактора за представянето, само че е мъчно да се потвърди, че те са в действителност значими за дадената дъжност. "

Това е допустимо при всеки сходен логаритъм на изкуствения разсъдък, който употребява исторически данни за изследване на хората, предупреждават изследователи и технолози.

Хората нормално мислят, че машините правят нещата по-добре, което изяснява за какво доста компании употребяват принадлежности, основани на ИИ, с цел да избегнат човешките предубеждения.  " Основната причина, на която се основава тази технология, е че хората вършат неточности и компютрите могат да се оправят по-добре ", споделя Реймънд Берти, юрист по заетостта в Akerman LLP.

Очевидно нещата не са толкоз елементарни. Не сме достигнали стадия, в който работодателят може да позволи на компютъра да прави цялата работа. Компаниите са виновни за решенията, които взимат при наемане на личен състав, в това число и за инструментите, които употребяват при отсяване на претендентите. Компанията може да бъде държана виновна, даже в случай че не е наясно защо логаритъмът избира един претендент пред различен.

Прочетете целия материал на уеб страницата на Мениджър Нюз.

Източник: obekti.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР