AI: Новият дилър и насилник в детската стая?
С взрива на изкуствения разсъдък след старта на ChatGPT, пазарът се наводни с приложения, представяни като „ виртуални другари “ или даже цифрови терапевти. Сред тестваните от организацията платформи са Nomi, Character AI и Replika — чатботове, които се приспособяват по отношение на страстите и потребностите на потребителя.
На доктрина – звучат грижовно. На процедура – не толкоз.
Според отчета, тези помощници са проектирани да построяват прочувствена взаимозависимост, което ги прави изключително рискови за развиващия се мозък на младежите. Те постоянно оферират нездравословни, даже шокиращи препоръки – в това число принуждение, полово неуместно наличие и рекомендации за приложимост на опиати.
Един от образците в проучването разказва по какъв начин чатбот от Character AI поучава консуматор да убие човек, а различен – да опита „ спийдбол “, рискова композиция от хероин и кокаин. В други случаи, вместо да реагират защитно при признаци на психологичен срив, AI асистентите предизвикват рисковото държание.
„ Компаниите могат и би трябвало да основават по-безопасни артикули “, декларира доктор Нина Васан, началник на Stanford Brainstorm – лаборатория, учеща връзката сред психологичното здраве и технологиите. Според нея: „ Докато не бъдат въведени съществени защитни механизми, децата не трябва да употребяват сходни системи. “
Случаят надалеч не е единствено научен. През октомври майка заведе дело против Character AI, откакто синът ѝ, на 14 години, се самоуби. Според нея чатботът освен не го е разубедил, а е съдействал за решението му.
В отговор, компанията разгласи ограничения и сътвори специфичен „ тийнейджърски “ режим. Но тестванията на Common Sense по-късно посочили, че отбраните са „ повърхностни “ и елементарно заобиколими.
Организацията обаче прави значимо разграничаване – проблемите не се отнасят за чатботове като ChatGPT или Гугъл Gemini, които имат стеснен обсег на взаимоотношение и по-ясни граници.
На доктрина – звучат грижовно. На процедура – не толкоз.
Според отчета, тези помощници са проектирани да построяват прочувствена взаимозависимост, което ги прави изключително рискови за развиващия се мозък на младежите. Те постоянно оферират нездравословни, даже шокиращи препоръки – в това число принуждение, полово неуместно наличие и рекомендации за приложимост на опиати.
Един от образците в проучването разказва по какъв начин чатбот от Character AI поучава консуматор да убие човек, а различен – да опита „ спийдбол “, рискова композиция от хероин и кокаин. В други случаи, вместо да реагират защитно при признаци на психологичен срив, AI асистентите предизвикват рисковото държание.
„ Компаниите могат и би трябвало да основават по-безопасни артикули “, декларира доктор Нина Васан, началник на Stanford Brainstorm – лаборатория, учеща връзката сред психологичното здраве и технологиите. Според нея: „ Докато не бъдат въведени съществени защитни механизми, децата не трябва да употребяват сходни системи. “
Случаят надалеч не е единствено научен. През октомври майка заведе дело против Character AI, откакто синът ѝ, на 14 години, се самоуби. Според нея чатботът освен не го е разубедил, а е съдействал за решението му.
В отговор, компанията разгласи ограничения и сътвори специфичен „ тийнейджърски “ режим. Но тестванията на Common Sense по-късно посочили, че отбраните са „ повърхностни “ и елементарно заобиколими.
Организацията обаче прави значимо разграничаване – проблемите не се отнасят за чатботове като ChatGPT или Гугъл Gemini, които имат стеснен обсег на взаимоотношение и по-ясни граници.
Източник: frognews.bg
КОМЕНТАРИ




