Apple не сканира за сексуално насилие срещу деца в услугите си
Apple не прави задоволително, че да засича наличието със полово принуждение над деца в услугите си, настояват специалисти по детска сигурност. Американската компания се е отказала от проектите си да сканира интензивно в iCloud, iMessage и FaceTime, където се съхраняват и популяризират такива материали, оповестява ArsTechnica.
Пред " Гардиън " от британското Национално дружество за предварителна защита на жестокостта към децата настояват, че компанията пропуща голяма част от този вид наличие, което се обитава в техните клауд услуги и приложения за пращане на известия. Според тях полицията е разследвала повече сходни случаи единствено в Обединеното кралство през 2023 година, в сравнение с Apple е докладвала световно за цялата година. А техни артикули са забъркани в 337 записани случая на детско принуждение единствено сред април 2022-ра и март 2023-та година.
Големите софтуерни компании в Съединени американски щати би трябвало да рапортуват сходни случаи, когато ги открият. Apple обаче съобкащава единствено за няколкостонит годишно, до момента в който Meta и Гугъл рапортуват милиони.
" Apple явно изостава от доста от своите сътрудници в оправянето със половото принуждение над деца, когато всички софтуерни компании би трябвало да влагат в сигурност и да се приготвят за въвеждането на Закона за онлайн сигурност в Обединеното кралство ", разяснява Ричард Колард, началник на политиката за онлайн сигурност на децата в сдружението.
Подобно е мнението и на специалисти отвън Англия - Сара Гарднър, изпълнителен шеф на основаната в Лос Анджелис организация за отбрана на децата Heat Initiative определя платформите на Apple за " черна дупка ", която крие закононарушения против деца. Тя чака, че напъните на Apple да вкара AI в своите платформи ще утежни казуса, евентуално улеснявайки разпространяването на генерирано от AI наличие в среда, в която половите хищници може да чакат по-малко надзор.
Миналия септември Apple отговори на настояванията на Heat Initiative за разкриване на повече CSAM, казвайки, че вместо да се концентрира върху сканирането за нелегално наличие, фокусът е върху свързването на уязвими или потърпевши консуматори непосредствено с локални запаси и правоохранителни органи.
Още по тематаПодкрепете ни
Уважаеми читатели, вие сте тук и през днешния ден, с цел да научите новините от България и света, и да прочетете настоящи разбори и мнения от „ Клуб Z “. Ние се обръщаме към вас с молба – имаме потребност от вашата поддръжка, с цел да продължим. Вече години вие, читателите ни в 97 страни на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на същинска, самостоятелна и качествена публицистика. Вие можете да допринесете за нашия блян към истината, неприкривана от финансови зависимости. Можете да помогнете единственият гарант на наличие да сте вие – читателите.
Пред " Гардиън " от британското Национално дружество за предварителна защита на жестокостта към децата настояват, че компанията пропуща голяма част от този вид наличие, което се обитава в техните клауд услуги и приложения за пращане на известия. Според тях полицията е разследвала повече сходни случаи единствено в Обединеното кралство през 2023 година, в сравнение с Apple е докладвала световно за цялата година. А техни артикули са забъркани в 337 записани случая на детско принуждение единствено сред април 2022-ра и март 2023-та година.
Големите софтуерни компании в Съединени американски щати би трябвало да рапортуват сходни случаи, когато ги открият. Apple обаче съобкащава единствено за няколкостонит годишно, до момента в който Meta и Гугъл рапортуват милиони.
" Apple явно изостава от доста от своите сътрудници в оправянето със половото принуждение над деца, когато всички софтуерни компании би трябвало да влагат в сигурност и да се приготвят за въвеждането на Закона за онлайн сигурност в Обединеното кралство ", разяснява Ричард Колард, началник на политиката за онлайн сигурност на децата в сдружението.
Подобно е мнението и на специалисти отвън Англия - Сара Гарднър, изпълнителен шеф на основаната в Лос Анджелис организация за отбрана на децата Heat Initiative определя платформите на Apple за " черна дупка ", която крие закононарушения против деца. Тя чака, че напъните на Apple да вкара AI в своите платформи ще утежни казуса, евентуално улеснявайки разпространяването на генерирано от AI наличие в среда, в която половите хищници може да чакат по-малко надзор.
Миналия септември Apple отговори на настояванията на Heat Initiative за разкриване на повече CSAM, казвайки, че вместо да се концентрира върху сканирането за нелегално наличие, фокусът е върху свързването на уязвими или потърпевши консуматори непосредствено с локални запаси и правоохранителни органи.
Още по тематаПодкрепете ни
Уважаеми читатели, вие сте тук и през днешния ден, с цел да научите новините от България и света, и да прочетете настоящи разбори и мнения от „ Клуб Z “. Ние се обръщаме към вас с молба – имаме потребност от вашата поддръжка, с цел да продължим. Вече години вие, читателите ни в 97 страни на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на същинска, самостоятелна и качествена публицистика. Вие можете да допринесете за нашия блян към истината, неприкривана от финансови зависимости. Можете да помогнете единственият гарант на наличие да сте вие – читателите.
Източник: clubz.bg
КОМЕНТАРИ




