ChatGPT не става за доктор. Дава верни диагнози само в 49% от случаите
Ако беше студент, логаритъмът би получил двойка
ChatGPT може да е незаместим с помощта си в доста неща - писане на мейли, предоставяне на информация и съпоставения, само че никога не го ползвайте като персонален доктор.
Учени са показали 150 медицински случая на изкуствения разсъдък. AI чатботът дава вярна диагноза в по-малко от половината от случаите. Изследването е разказано в детайли в публикация, оповестена в научния вестник Plos One.
Констатациите демонстрират, че в сегашната си форма ChatGPT " не е прецизен като диагностичен инструмент ".
" Ако хората са уплашени, комплицирани или просто не могат да получат достъп до грижи, те може да разчитат на инструмент, който наподобява дава медицински препоръки, които са " по размер " за тях ", сподели съавторът на проучването и асистент-професорът от Западния университет Амрит Кирпалани.
" Мисля, че като здравна общественост (и измежду по-голямата научна общност) би трябвало да бъдем самодейни в образованието на общото население по отношение на рестриктивните мерки на тези принадлежности в това отношение. Те към момента не би трябвало да заместват вашия доктор. "
В техния опит огромният езиков модел на ChatGPT GPT 3.5 е захранен с разнообразни медицински случаи от Medscape. Всички те са в детайли разказани и тъкмо диагностицирани.
ChatGPT получил достъп до историята на пациента, всевъзможни констатации от физически прегледи и лабораторни и образни резултати - всички неща, до които вашият средностатистически човешки доктор би имал достъп.
Накрая AI ботът трябвало да избира от четири разнообразни отговора, като единствено един от тях е правилен. Освен това той трябвало да изясни претекстовете си зад диагнозата и в някои случаи да даде цитати.
Ако ChatGPT беше студент по медицина, щеше да получи двойка. Той дава вярната диагноза единствено в 49 % от времето.
Общата акуратност обаче е доста по-добра. Този аршин преглежда умеенето на ChatGPT да отхвърля неверните избори във всички варианти с голям брой благоприятни условия за избор. Той означи 74 % - което значи, че логаритъмът е изненадващо добър в разпознаването на неправилната диагноза. Но даже и тогава той се затруднява в диагностицирането на случаите.
Най-големите дефекти на ChatGPT спрямо човешките лекари са, че мъчно интерпретира числени стойности и не е в положение да интерпретира медицински изображения. Изследователите разкрили, че от време на време алгоритъмът халюцинира данни и от време на време подценява основна информация.
Кирпалани декларира, че AI технологията несъмнено ще откри място в медицината и ще продължи да се развива. Въпреки това резултатите демонстрират, че ChatGPT не може да се употребява за доктор.
ChatGPT може да е незаместим с помощта си в доста неща - писане на мейли, предоставяне на информация и съпоставения, само че никога не го ползвайте като персонален доктор.
Учени са показали 150 медицински случая на изкуствения разсъдък. AI чатботът дава вярна диагноза в по-малко от половината от случаите. Изследването е разказано в детайли в публикация, оповестена в научния вестник Plos One.
Констатациите демонстрират, че в сегашната си форма ChatGPT " не е прецизен като диагностичен инструмент ".
" Ако хората са уплашени, комплицирани или просто не могат да получат достъп до грижи, те може да разчитат на инструмент, който наподобява дава медицински препоръки, които са " по размер " за тях ", сподели съавторът на проучването и асистент-професорът от Западния университет Амрит Кирпалани.
" Мисля, че като здравна общественост (и измежду по-голямата научна общност) би трябвало да бъдем самодейни в образованието на общото население по отношение на рестриктивните мерки на тези принадлежности в това отношение. Те към момента не би трябвало да заместват вашия доктор. "
В техния опит огромният езиков модел на ChatGPT GPT 3.5 е захранен с разнообразни медицински случаи от Medscape. Всички те са в детайли разказани и тъкмо диагностицирани.
ChatGPT получил достъп до историята на пациента, всевъзможни констатации от физически прегледи и лабораторни и образни резултати - всички неща, до които вашият средностатистически човешки доктор би имал достъп.
Накрая AI ботът трябвало да избира от четири разнообразни отговора, като единствено един от тях е правилен. Освен това той трябвало да изясни претекстовете си зад диагнозата и в някои случаи да даде цитати.
Ако ChatGPT беше студент по медицина, щеше да получи двойка. Той дава вярната диагноза единствено в 49 % от времето.
Общата акуратност обаче е доста по-добра. Този аршин преглежда умеенето на ChatGPT да отхвърля неверните избори във всички варианти с голям брой благоприятни условия за избор. Той означи 74 % - което значи, че логаритъмът е изненадващо добър в разпознаването на неправилната диагноза. Но даже и тогава той се затруднява в диагностицирането на случаите.
Най-големите дефекти на ChatGPT спрямо човешките лекари са, че мъчно интерпретира числени стойности и не е в положение да интерпретира медицински изображения. Изследователите разкрили, че от време на време алгоритъмът халюцинира данни и от време на време подценява основна информация.
Кирпалани декларира, че AI технологията несъмнено ще откри място в медицината и ще продължи да се развива. Въпреки това резултатите демонстрират, че ChatGPT не може да се употребява за доктор.
Източник: dnesplus.bg
КОМЕНТАРИ