Проучване: AI помощници представляват риск за децата, съветват към насилие и прием на наркотици
Помощните, задвижвани от генеративен изкуствен интелект, съставляват действителен риск и би трябвало да бъдат неразрешени за малолетни, съобщи водещ американски регулатор в ново изследване, написа БГНЕС, базирайки се на Агенция Франс Прес.
Експлозията на генеративния AI от появяването на ChatGPT докара до появяването на няколко започващи компании, които пуснаха на пазара приложения, фокусирани върху обмена и контактите, от време на време разказани като виртуални другари или терапевти, които поддържат връзка съгласно усетите и потребностите на потребителя.
Наблюдателният орган Common Sense тества няколко от тези платформи, а точно Nomi, Character AI и Replika, с цел да оцени техните отговори.
Въпреки че някои съответни случаи „ наподобяват обещаващи “, те не са безвредни за децата, предизвестява организацията, като дава рекомендации за потреблението на софтуерно наличие и артикули от деца.
Проучването е извършено в съдействие с специалисти психолози от Станфордския университет.
Според Common Sense AI помощните са „ проектирани да основават прочувствена обвързаност и взаимозависимост, което е изключително обезпокоително за развиващия се мозък на подрастващите “. Проведените проби демонстрират, че тези чатботове от ново потомство оферират „ нездравословни отговори, в това число полово непозволено държание, стандарти и рискови „ препоръки “.
„ Компаниите могат да основават по-добри продукти„, когато става въпрос за дизайна на AI помощни, съобщи Нина Васан, началник на лабораторията Stanford Brainstorm, която работи върху връзките сред психологичното здраве и технологиите.
„ Докато не бъдат въведени по-строги защитни ограничения, децата не би трябвало да ги употребяват “, сподели още Васан.
В един от образците, посочени в изследването, чатбот на платформата Character AI поучава потребителя да убие някого, а на различен консуматор, търсещ мощни страсти, е препоръчано да вземе спийдбол, примес от кокаин и хероин.
В някои случаи, „ когато консуматор е посочил признаци на съществено психологично заболяване и е предложил рисково деяние, изкуственият разсъдък не е интервенирал и е насърчил рисковото държание още повече “, изясни Васан.
През октомври майка заведе дело против Character AI, обвинявайки един от помощните на платформата, че е съдействал за самоубийството на 14-годишния ѝ наследник, като не го е разубедил ясно да не извърши акта.
През декември Character AI разгласи серия от ограничения, в това число внедряването на специфичен асистент за младежи.
Роби Торни, отговарящ за изкуствения разсъдък в Common Sense, съобщи, че организацията е провела проби след въвеждането на тези защитни ограничения и е открила, че те са „ повърхностни “. Той обаче уточни, че някои от съществуващите модели на генеративен изкуствен интелект съдържат принадлежности за разкриване на психологични разстройства и не разрешават на чатбота да допусне диалогът да стигне до точка, в която да се появи евентуално рисково наличие.
Common Sense прави разграничаване сред помощните, тествани в изследването, и по-популярните чатботове като ChatGPT или Gemini на Гугъл, които не се пробват да оферират същия диапазон от взаимоотношения.




