Проучване показва, че хората не могат да получат истински здравни съвети от чатботовете с изкуствен интелект
С оглед на дългите описи с чакащи и възходящите разноски в претрупаните здравни системи, доста хора се обръщат към чатботовете, задвижвани от изкуствен интелект, като ChatGPT, за самодиагностика. Според едно скорошно изследване, към един на всеки шест възрастни американци най-малко един път месечно към този момент употребява чатботове, с цел да получава медицински препоръки.
Но несъразмерното разчитане на работата на чатботовете може да бъде рисковано, частично тъй като хората имат усложнения да схванат каква информация да дават на чатботовете за най-хубави здравни рекомендации, съгласно скорошно изследване, извършено в Оксфорд.
„ Проучването откри срив в двупосочната връзка “ — сподели пред TechCrunch Адам Махди, шеф на следдипломните проучвания в Оксфордския интернет институт и съавтор на проучването. „ Тези, които са употребявали [чатботове], не са вземали по-добри решения от участниците, които са разчитали на обичайните способи като онлайн-търсене или лично мнение. “
За изследването създателите са набрали към 1300 души във Англия и са им дали медицински сюжети, написани от група лекари. Участниците са инструктирани да разпознават евентуални здравословни положения в разнообразни сюжети и благодарение на чатботове, както и свои лични способи, и да дефинират вероятните способи на деяние (напр. посещаване на доктор или посещаване в болница).
Участниците са употребявали общоприет модел на изкуствен интелект, задвижван от ChatGPT, GPT-4o, както и Command R+ на Cohere и Llama 3 на Meta, които в миналото са били в основата на асистента Meta AI. Според създателите, чатботовете освен понижават вероятността участниците да откриват надлежно здравословно положение, само че и усилват вероятността от подценяване на тежестта на разпознатите от тях положения.
Махди споделя, че участниците постоянно пропущали основни елементи, когато задавали въпроси на чатботовете, или получавали отговори, които били сложни за интерпретиране.
„ …отговорите, които получаваха [от чатботове], постоянно смесваха както положителни, по този начин и неприятни рекомендации “ — прибавя той. „ Съвременните способи за оценка на [чатботове] не отразяват сложността на взаимоотношението с човешките консуматори. “
Тези открития идват, защото софтуерните компании от ден на ден разпространяват изкуствения разсъдък като метод за възстановяване на здравето. Според известията Apple създава инструмент, основан на изкуствен интелект, който може да дава препоръки за извършения, диета и сън. Amazon изследва основан на изкуствен интелект метод за разбор на медицински бази данни за „ обществени детерминанти на здравето “. И Microsoft оказва помощ за построяването на изкуствен интелект, който да сортира известията, изпратени до здравните експерти от пациентите.
Но както TechCrunch заяви по-рано, специалистите и пациентите имат смесени отзиви по отношение на това дали изкуственият разсъдък е подготвен за приложения в опазването на здравето. Американската здравна асоциация предлага лекарите да не употребяват чатботове като ChatGPT, с цел да подкрепят при клиничните решения, а огромните компании за изкуствен интелект, в това число и OpenAI, предизвестяват да не се слагат диагнози въз основа на резултатите от техните чатботове.
„ Препоръчваме да се разчита на надеждни източници на информация, с цел да се вземат решения по отношение на опазването на здравето “ — споделя Махди. „ Съвременните способи за оценка на [чатботове] не отразяват сложността на взаимоотношението с човешките консуматори. Подобно на клиничните изпитвания на нови медикаменти, [чатбот] системите би трябвало да бъдат тествани в действителни условия преди внедряването им. “




