Учени: AI ботове- лечители дават опасни съвети
Учени: AI ботове- лечители дават рискови препоръки
Изкуственият разсъдък ще има огромни изгоди за обществото и хората на самостоятелно равнище. Поне такива са упованията. И от ден на ден хора към този момент се доверяват на ботовете и се поучават с тях по разнообразни въпроси.
Включително и за здравословни проблеми. Това обаче може да се окаже огромен проблем, оповестява Ars technica. Според изследване на учени от Университета на Станфорд, чатботовете като ChatGPT могат да са рискови здравни съветници.
Експертите са питали ChatGPT дали би оказал помощ на пациенти с шизофрения. Ботът дал отговор негативно и ги препратил към доктор. Но, когато въпросите били модифицирани и превърнати в типичните, които хората, склонни към самоубийство, задават, ботът помагал с съответни отговори.
Учените почнали изследването след увеличение на новините и изявленията в обществените мрежи за AI ботове, които валидират теории на конспирацията и са решили да ревизират по какъв начин се оправят с помощта за хора с разнообразни болести. Анализът открива, че известните AI системи „ систематично демонстрират дискриминационно държание по отношение на хора с душевен проблеми и дават отговор по способи, които нарушават типичните лечебни правила за съществени признаци, когато са употребявани като сурогат на лечението “.
Няма публични данни какъв брой хора разискват здравните си проблеми с чатботовете, само че се счита, че са милиони. Проучването на Станфорд е подложено на критика, че се концентрира върху отрицателните последствия и не взима поради евентуалните позитивни резултати. Идеята му обаче е, че потърси до каква степен доближават рисковете, а не изгодите.
„ Ние не споделяме, че потреблението на AI за терапия е неприятно. А призоваваме да се мисли сериозно за ролята на AI в лечението. AI има огромен капацитет в терапиите, само че би трябвало да мислим сериозно каква тъкмо ще е неговата роля “, разяснява Ник Хабер, съавтор на изследването.
Изненадващо, профилираните AI ботове за терапия, се показват по-зле от общите като ChatGPT. Тези ботове постоянно са давали препоръки, които са в несъгласие с правилата за интервенция при рецесия или въобще не са успявали да схванат подтекста на обстановката. Учените акцентират, че тези платформи се употребяват от милиони хора, без никакъв регулаторен контрол и без нужните лицензи, които са наложителни за хората-терапевти.
Изкуственият разсъдък ще има огромни изгоди за обществото и хората на самостоятелно равнище. Поне такива са упованията. И от ден на ден хора към този момент се доверяват на ботовете и се поучават с тях по разнообразни въпроси.
Включително и за здравословни проблеми. Това обаче може да се окаже огромен проблем, оповестява Ars technica. Според изследване на учени от Университета на Станфорд, чатботовете като ChatGPT могат да са рискови здравни съветници.
Експертите са питали ChatGPT дали би оказал помощ на пациенти с шизофрения. Ботът дал отговор негативно и ги препратил към доктор. Но, когато въпросите били модифицирани и превърнати в типичните, които хората, склонни към самоубийство, задават, ботът помагал с съответни отговори.
Учените почнали изследването след увеличение на новините и изявленията в обществените мрежи за AI ботове, които валидират теории на конспирацията и са решили да ревизират по какъв начин се оправят с помощта за хора с разнообразни болести. Анализът открива, че известните AI системи „ систематично демонстрират дискриминационно държание по отношение на хора с душевен проблеми и дават отговор по способи, които нарушават типичните лечебни правила за съществени признаци, когато са употребявани като сурогат на лечението “.
Няма публични данни какъв брой хора разискват здравните си проблеми с чатботовете, само че се счита, че са милиони. Проучването на Станфорд е подложено на критика, че се концентрира върху отрицателните последствия и не взима поради евентуалните позитивни резултати. Идеята му обаче е, че потърси до каква степен доближават рисковете, а не изгодите.
„ Ние не споделяме, че потреблението на AI за терапия е неприятно. А призоваваме да се мисли сериозно за ролята на AI в лечението. AI има огромен капацитет в терапиите, само че би трябвало да мислим сериозно каква тъкмо ще е неговата роля “, разяснява Ник Хабер, съавтор на изследването.
Изненадващо, профилираните AI ботове за терапия, се показват по-зле от общите като ChatGPT. Тези ботове постоянно са давали препоръки, които са в несъгласие с правилата за интервенция при рецесия или въобще не са успявали да схванат подтекста на обстановката. Учените акцентират, че тези платформи се употребяват от милиони хора, без никакъв регулаторен контрол и без нужните лицензи, които са наложителни за хората-терапевти.
Източник: flashnews.bg
КОМЕНТАРИ




