Facebook се извини, че алгоритмите ѝ са маркирали като видео с примати клип с чернокожи
Facebook се извини за случай, при който AI логаритмите на компанията неправилно са означили видеоклип с чернокожи с етикет „ примати “, наричайки това „ неприемлива неточност “, която сега проверява, с цел да предотврати нейното повторение. Както оповестяват от New York Times, потребителите, които са гледали видеоклип на 27 юни, оповестен от таблоида на Англия Daily Mail, са получили автоматизирано подкана дали желаят да „ продължат да виждат видеоклипове с примати “.
Фейсбук деактивира цялата функционалност за рекомендация на видеа по тематики, незабавно щом разбра какво се случва, съобщи представител на компанията в имейл до The Verge в събота.
„ Това явно беше неприемлива неточност “, споделя представител на компанията. Социалната мрежа проверява повода, с цел да може да предотврати повтарянето на грешката, добави представителят на компанията. „ Както казахме, въпреки да сме подобрили нашия AI, знаем, че той не е съвършен и би трябвало да реализираме повече прогрес. Извиняваме се на всеки, който е видял тези обидни рекомендации. “
Инцидентът е единствено най-новият образец за инструмент с изкуствен интелект, показващи полова или расова пристрастност, доколкото можем да приказваме за съзнателния феномен „ пристрастност “, присъщ за човешките мозъци, при тези автоматизирани системи, както за инструмент за различаване на лица, при който е потвърдено, че има явен проблем при разпознаването на цветнокожи хора. През 2015 година Гугъл се извини, откакто приложението Снимки маркира фотосите на чернокожи като „ горили “ . Миналата година Фейсбук съобщи, че изследва дали логаритмите ѝ, подготвени благодарение на AI – в това число и тези на обществената мрежа Instagram, която компанията има, демонстрират някакви расовия пристрастия или обилни грешки и неточности при разпознаването и работата им с хора от разнообразни етноси и националности.
Фейсбук деактивира цялата функционалност за рекомендация на видеа по тематики, незабавно щом разбра какво се случва, съобщи представител на компанията в имейл до The Verge в събота.
„ Това явно беше неприемлива неточност “, споделя представител на компанията. Социалната мрежа проверява повода, с цел да може да предотврати повтарянето на грешката, добави представителят на компанията. „ Както казахме, въпреки да сме подобрили нашия AI, знаем, че той не е съвършен и би трябвало да реализираме повече прогрес. Извиняваме се на всеки, който е видял тези обидни рекомендации. “
Инцидентът е единствено най-новият образец за инструмент с изкуствен интелект, показващи полова или расова пристрастност, доколкото можем да приказваме за съзнателния феномен „ пристрастност “, присъщ за човешките мозъци, при тези автоматизирани системи, както за инструмент за различаване на лица, при който е потвърдено, че има явен проблем при разпознаването на цветнокожи хора. През 2015 година Гугъл се извини, откакто приложението Снимки маркира фотосите на чернокожи като „ горили “ . Миналата година Фейсбук съобщи, че изследва дали логаритмите ѝ, подготвени благодарение на AI – в това число и тези на обществената мрежа Instagram, която компанията има, демонстрират някакви расовия пристрастия или обилни грешки и неточности при разпознаването и работата им с хора от разнообразни етноси и националности.
Източник: kaldata.com
КОМЕНТАРИ




