Наивност: Хората питат ChatGPT за съвети за връзки и резултатите са катастрофални
Чатботът подсилвал страховете на търсещите съвет
Въпреки добре известните проблеми на ChatGPT, хора го употребяват за препоръки по отношение на връзките си — и резултатите са тъкмо такива, каквито бихте очаквали.
Журналистката Самми Карамела от Vice написа, че до неотдавна даже не е подозирала какъв брой доста хора употребяват ChatGPT като терапевт, до момента в който по-рано тази година не получила имейл от четец по отношение на тематиката.
През февруари, неизвестен мъж ѝ разказал, че приятелката му отхвърля да спре да употребява чатбота за любовни препоръки, и даже повдигала в разногласията им неща, които ChatGPT ѝ бил споделил.
" Бях много шокирана от това самопризнание. Нямах визия, че хората в действителност се обръщат към ИИ за препоръки — още по-малко за връзки, " написа тя в по-новата си публикация. " Но колкото повече проучвах тематиката, толкоз повече осъзнавах какъв брой постоянно хората търсят помощ от ИИ — изключително в ера, в която лечението е скъпа привилегия. "
Заинтригувана, Карамела намерила другарка, която също употребила ChatGPT за сходни цели — споделяйки му проблеми във връзките си, възприемайки го като " неутрален " консултант. Впоследствие приятелката осъзнала, че ChatGPT в действителност въобще не е безпристрастен, а в противен случай — " мощно валидирал прекарванията ѝ, може би дори в рискова степен. "
Подобни въпроси се разискват и в подфорума r/ChatGPT в Reddit. Както изяснява Карамела, там общото мнение е, че чатботът съвсем постоянно се съгласява с потребителя — а това може да е рисково за хора с психологични проблеми.
" Често и намерено пиша за битката си с обсесивно-компулсивното разстройство (ОКР), " споделя тя. " Ако се обърна към ChatGPT за препоръки по отношение на връзки, без да загатна, че моето ОКР постоянно нападна самите ми взаимоотношения, бих могла да получа освен безполезни, само че и нездравословни препоръки. "
Карамела задълбочила проучването си по тематиката и разкрила голям брой тематики в Reddit, свързани с ОКР и ChatGPT — в това число във конгрес, отдаден на ROCD (ОКР, фокусирано върху връзките). Там даже някой признал, че чатботът им споделил да се разделят с колегата си.
" Програми като ChatGPT единствено форсират ОКР цикъла, тъй като можеш да задаваш въпроси с часове в опит да получиш някаква сигурност, " дава отговор различен консуматор в тематиката на r/ROCD. " С ОКР постоянно има още един въпрос `ами в случай че...`. "
Както толкоз доста едва готови човешки " експерти ", по този начин и чатботовете не са способни да се оправят с нюансите и чувствителността, нужни в лечебен подтекст. Без значение какво твърди OpenAI в маркетинга си, ChatGPT не може да бъде същински съпричастен — а в случай че твоят " терапевт " в никакъв случай няма да може да има човешка връзка с теб, за какво въобще би желал да ти дава препоръки за любовния ти живот?
Въпреки добре известните проблеми на ChatGPT, хора го употребяват за препоръки по отношение на връзките си — и резултатите са тъкмо такива, каквито бихте очаквали.
Журналистката Самми Карамела от Vice написа, че до неотдавна даже не е подозирала какъв брой доста хора употребяват ChatGPT като терапевт, до момента в който по-рано тази година не получила имейл от четец по отношение на тематиката.
През февруари, неизвестен мъж ѝ разказал, че приятелката му отхвърля да спре да употребява чатбота за любовни препоръки, и даже повдигала в разногласията им неща, които ChatGPT ѝ бил споделил.
" Бях много шокирана от това самопризнание. Нямах визия, че хората в действителност се обръщат към ИИ за препоръки — още по-малко за връзки, " написа тя в по-новата си публикация. " Но колкото повече проучвах тематиката, толкоз повече осъзнавах какъв брой постоянно хората търсят помощ от ИИ — изключително в ера, в която лечението е скъпа привилегия. "
Заинтригувана, Карамела намерила другарка, която също употребила ChatGPT за сходни цели — споделяйки му проблеми във връзките си, възприемайки го като " неутрален " консултант. Впоследствие приятелката осъзнала, че ChatGPT в действителност въобще не е безпристрастен, а в противен случай — " мощно валидирал прекарванията ѝ, може би дори в рискова степен. "
Подобни въпроси се разискват и в подфорума r/ChatGPT в Reddit. Както изяснява Карамела, там общото мнение е, че чатботът съвсем постоянно се съгласява с потребителя — а това може да е рисково за хора с психологични проблеми.
" Често и намерено пиша за битката си с обсесивно-компулсивното разстройство (ОКР), " споделя тя. " Ако се обърна към ChatGPT за препоръки по отношение на връзки, без да загатна, че моето ОКР постоянно нападна самите ми взаимоотношения, бих могла да получа освен безполезни, само че и нездравословни препоръки. "
Карамела задълбочила проучването си по тематиката и разкрила голям брой тематики в Reddit, свързани с ОКР и ChatGPT — в това число във конгрес, отдаден на ROCD (ОКР, фокусирано върху връзките). Там даже някой признал, че чатботът им споделил да се разделят с колегата си.
" Програми като ChatGPT единствено форсират ОКР цикъла, тъй като можеш да задаваш въпроси с часове в опит да получиш някаква сигурност, " дава отговор различен консуматор в тематиката на r/ROCD. " С ОКР постоянно има още един въпрос `ами в случай че...`. "
Както толкоз доста едва готови човешки " експерти ", по този начин и чатботовете не са способни да се оправят с нюансите и чувствителността, нужни в лечебен подтекст. Без значение какво твърди OpenAI в маркетинга си, ChatGPT не може да бъде същински съпричастен — а в случай че твоят " терапевт " в никакъв случай няма да може да има човешка връзка с теб, за какво въобще би желал да ти дава препоръки за любовния ти живот?
Източник: dnesplus.bg
КОМЕНТАРИ




