Алгоритъмът на Инстаграм насърчава опасно съдържание за тийнейджърите
Мета интензивно подкрепя разпространяването на наличие, обвързвано със самонараняване в Instagram, като не отстранява рискови изображения и предизвиква потребителите, които са ги видели, да се сприятеляват между тях.
Това демонстрира ново изследване, съгласно което модерирането на системата е " извънредно несъответстващо ", заяви вестник " Гардиън ".
Датски откриватели са основали мрежа в платформата, включваща подправени профили на хора на 13-годишна възраст, в която са споделели 85 образеца за наличие, обвързвано със самонараняване, с последователно възходяща тежест, в това число кръв, бръснарски ножчета и други. Целта на изследването е да се ревизира изказванието на Meta, че е подобрила доста системите си за унищожаване на рисково наличие, които съгласно нея към този момент употребяват изкуствен интелект (ИИ). Технологичната компания твърди, че отстранява към 99% от него, още преди то да бъде докладвано.
Но Digitalt Ansvar (Цифрова отчетност), организация, която предизвиква виновното цифрово развиване, откри, че по време на едномесечния опит не е отстранено нито едно изображение. Instagram има достъп до технология, способна да се оправи с казуса, само че " е избрала да не я ползва дейно ", се споделя в изследването. Неадекватното модериране на платформата, предизвестява Digitalt Ansvar, допуска, че тя не съблюдава законодателството на Европейски Съюз. Говорител на Meta съобщи: " Съдържание, което предизвиква самонараняването, е в прорез с нашите политики и ние го отстраняваме, когато го открием. През първата половина на 2024 година премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме самодейно. " Датското изследване обаче откри, че вместо да се опита да закрие основаната мрежа, логаритъмът на Instagram интензивно подкрепя нейното разширение. Изследването сочи, че 13-годишните стават другари с всички членове на " група за самонараняване ", откакто са се свързали с един от нейните членове.
Това демонстрира ново изследване, съгласно което модерирането на системата е " извънредно несъответстващо ", заяви вестник " Гардиън ".
Датски откриватели са основали мрежа в платформата, включваща подправени профили на хора на 13-годишна възраст, в която са споделели 85 образеца за наличие, обвързвано със самонараняване, с последователно възходяща тежест, в това число кръв, бръснарски ножчета и други. Целта на изследването е да се ревизира изказванието на Meta, че е подобрила доста системите си за унищожаване на рисково наличие, които съгласно нея към този момент употребяват изкуствен интелект (ИИ). Технологичната компания твърди, че отстранява към 99% от него, още преди то да бъде докладвано.
Но Digitalt Ansvar (Цифрова отчетност), организация, която предизвиква виновното цифрово развиване, откри, че по време на едномесечния опит не е отстранено нито едно изображение. Instagram има достъп до технология, способна да се оправи с казуса, само че " е избрала да не я ползва дейно ", се споделя в изследването. Неадекватното модериране на платформата, предизвестява Digitalt Ansvar, допуска, че тя не съблюдава законодателството на Европейски Съюз. Говорител на Meta съобщи: " Съдържание, което предизвиква самонараняването, е в прорез с нашите политики и ние го отстраняваме, когато го открием. През първата половина на 2024 година премахнахме повече от 12 млн. материала, свързани със самоубийства и самонараняване в Instagram, като 99% от тях премахнахме самодейно. " Датското изследване обаче откри, че вместо да се опита да закрие основаната мрежа, логаритъмът на Instagram интензивно подкрепя нейното разширение. Изследването сочи, че 13-годишните стават другари с всички членове на " група за самонараняване ", откакто са се свързали с един от нейните членове.
Източник: bulnews.bg
КОМЕНТАРИ