Сенатори настояват AI компании да разкрият мерките си за безопасност на децата
Двама американски сенатори упорстват фирмите за AI да споделят своите практики за сигурност на потребителите, изключително най-малките и уязвими, написа.
Призивът идва няколко месеца откакто фамилии заведоха правосъдни дела срещу стартъпа Character.AI, потвърждавайки, че неговите чатботове са предизвикали вреди на децата им.
" Пишем, с цел да изразим нашата угриженост по отношение на рисковете за психологичното здраве и сигурността на младите консуматори, които взаимодействат с AI чатботове, основани на персонажи и персони ", обявиха демократичните сенаторите Алекс Падила и Питър Уелч , в писмо, изпратено в сряда, 2 април.
Писмото беше адресирано до фирмите Character Technologies , основател на Character.AI, C hai Research Corp. и Luka, Inc. , производител на чатбота Replika, като съдържаше искане за информация по отношение на ограниченията за сигурност и метода, по който фирмите образоват своите AI модели.
Докато известните AI чатботове като ChatGPT са проектирани за по-общи цели, Character.AI, Chai и Replika дават опция на потребителите да основават персонализирани чатботове или да взаимодействат с ботове, основани от други консуматори. Някои от тези ботове разрешават упражняване на непознати езици или симулация на диалози с измислени герои.
Други обаче се показват като експерти по психологично здраве или въплъщават нападателни и спорни персонажи, в това число подобен, който се разказва като „ нападателен, принудителен, някогашен боен, водач на мафията “.
Използването на AI чатботове като цифрови другари става все по-разпространено, а някои консуматори даже ги възприемат като сантиментални сътрудници . Това поражда терзания измежду специалисти и родители по отношение на опцията младежите да изградят нездравословни привързаности към AI герои или да бъдат изложени на неуместно за тяхното развиване наличие.
" Това безпричинно доверие може да докара потребителите до откриване на сензитивна информация за тяхното прочувствено положение , междуличностни връзки или психологично здраве, в това число мисли за самонараняване и суицидни хрумвания – тематики, с които вашите AI чатботове не са квалифицирани да се оправят ", написаха сенаторите в писмото си, което в началото беше предоставено на CNN. " Разговорите, навлизащи в тази рискова прочувствена територия, съставляват сериозен риск за уязвимите консуматори . "
Говорител на Character.AI съобщи: " Приветстваме разговора с регулатори и законодатели и сме в контакт с офисите на сенаторите Падила и Уелч. " Компаниите Chai и Luka не са дали отговор на запитванията за коментар.
През декември две фамилии подадоха правосъдни искове против Character.AI,обвинявайки го в разпространяване на неуместно наличие и поощряване на насилие. Едно от фамилиите твърди, че чатботът е внушил на техния младеж, че може да убие родителите си, тъй като са ограничили времето му пред екрана.
Character.AI разгласи, че е въвел нови ограничения за сигурност , в това число изскачащи предизвестия, които насочват потребителите към Националната линия за предварителна защита на самоубийствата, когато потребителите загатват самонараняване. Компанията също по този начин създава технологии, които да попречат на младежите да бъдат изложени на сензитивно наличие.
Миналата седмица Character.AI показа нова функционалност, която изпраща на родителите седмични имейли с информация за потреблението на платформата от техните деца, в това число екранното време и най-често употребяваните AI персонажи.
Други компании, разработващи AI чатботове, също са изправени пред въпроси по отношение на въздействието на тези технологии върху психологичното здраве. Главният изпълнителен шеф на Replika, Eugenia Kuyda, съобщи пред The Verge, че приложението е основано, с цел да предизвиква " дълготрайна ангажираност и положителна връзка " сред потребителите и AI, като това може да включва другарство или даже " брак " с чатботове.
В писмото си сенаторите Падила и Уелч упорстват фирмите да дават информация за своите ограничения за сигурност, както сегашни, по този начин и минали, както и за всички извършени изследвания по отношение на успеваемостта на тези ограничения. Освен това те желаят елементи за употребяваните данни при образованието на AI моделите и по какъв начин тези данни " въздействат върху вероятността потребителите да се сблъскат с неуместно наличие или други чувствителни тематики. "
" Изключително значимо е да разберем по какъв начин тези модели са програмирани да дават отговор на тематики, свързани с психологичното здраве ", акцентират сенаторите. " Политиците, родителите и техните деца имат право да знаят какво вършат вашите компании, с цел да предпазят потребителите от тези потвърдено съществени опасности. "
Призивът идва няколко месеца откакто фамилии заведоха правосъдни дела срещу стартъпа Character.AI, потвърждавайки, че неговите чатботове са предизвикали вреди на децата им.
" Пишем, с цел да изразим нашата угриженост по отношение на рисковете за психологичното здраве и сигурността на младите консуматори, които взаимодействат с AI чатботове, основани на персонажи и персони ", обявиха демократичните сенаторите Алекс Падила и Питър Уелч , в писмо, изпратено в сряда, 2 април.
Писмото беше адресирано до фирмите Character Technologies , основател на Character.AI, C hai Research Corp. и Luka, Inc. , производител на чатбота Replika, като съдържаше искане за информация по отношение на ограниченията за сигурност и метода, по който фирмите образоват своите AI модели.
Докато известните AI чатботове като ChatGPT са проектирани за по-общи цели, Character.AI, Chai и Replika дават опция на потребителите да основават персонализирани чатботове или да взаимодействат с ботове, основани от други консуматори. Някои от тези ботове разрешават упражняване на непознати езици или симулация на диалози с измислени герои.
Други обаче се показват като експерти по психологично здраве или въплъщават нападателни и спорни персонажи, в това число подобен, който се разказва като „ нападателен, принудителен, някогашен боен, водач на мафията “.
Използването на AI чатботове като цифрови другари става все по-разпространено, а някои консуматори даже ги възприемат като сантиментални сътрудници . Това поражда терзания измежду специалисти и родители по отношение на опцията младежите да изградят нездравословни привързаности към AI герои или да бъдат изложени на неуместно за тяхното развиване наличие.
" Това безпричинно доверие може да докара потребителите до откриване на сензитивна информация за тяхното прочувствено положение , междуличностни връзки или психологично здраве, в това число мисли за самонараняване и суицидни хрумвания – тематики, с които вашите AI чатботове не са квалифицирани да се оправят ", написаха сенаторите в писмото си, което в началото беше предоставено на CNN. " Разговорите, навлизащи в тази рискова прочувствена територия, съставляват сериозен риск за уязвимите консуматори . "
Говорител на Character.AI съобщи: " Приветстваме разговора с регулатори и законодатели и сме в контакт с офисите на сенаторите Падила и Уелч. " Компаниите Chai и Luka не са дали отговор на запитванията за коментар.
През декември две фамилии подадоха правосъдни искове против Character.AI,обвинявайки го в разпространяване на неуместно наличие и поощряване на насилие. Едно от фамилиите твърди, че чатботът е внушил на техния младеж, че може да убие родителите си, тъй като са ограничили времето му пред екрана.
Character.AI разгласи, че е въвел нови ограничения за сигурност , в това число изскачащи предизвестия, които насочват потребителите към Националната линия за предварителна защита на самоубийствата, когато потребителите загатват самонараняване. Компанията също по този начин създава технологии, които да попречат на младежите да бъдат изложени на сензитивно наличие.
Миналата седмица Character.AI показа нова функционалност, която изпраща на родителите седмични имейли с информация за потреблението на платформата от техните деца, в това число екранното време и най-често употребяваните AI персонажи.
Други компании, разработващи AI чатботове, също са изправени пред въпроси по отношение на въздействието на тези технологии върху психологичното здраве. Главният изпълнителен шеф на Replika, Eugenia Kuyda, съобщи пред The Verge, че приложението е основано, с цел да предизвиква " дълготрайна ангажираност и положителна връзка " сред потребителите и AI, като това може да включва другарство или даже " брак " с чатботове.
В писмото си сенаторите Падила и Уелч упорстват фирмите да дават информация за своите ограничения за сигурност, както сегашни, по този начин и минали, както и за всички извършени изследвания по отношение на успеваемостта на тези ограничения. Освен това те желаят елементи за употребяваните данни при образованието на AI моделите и по какъв начин тези данни " въздействат върху вероятността потребителите да се сблъскат с неуместно наличие или други чувствителни тематики. "
" Изключително значимо е да разберем по какъв начин тези модели са програмирани да дават отговор на тематики, свързани с психологичното здраве ", акцентират сенаторите. " Политиците, родителите и техните деца имат право да знаят какво вършат вашите компании, с цел да предпазят потребителите от тези потвърдено съществени опасности. "
Източник: vesti.bg
КОМЕНТАРИ




