Д-р ChatGPT ще ви приеме сега – и може би ще постави по-точна диагноза от личния ви лекар
През април консуматор на Reddit споделя по какъв начин пет години е живял с болки в челюстта – следствие от контузия при боксов мач. Налага му се да премине през експерти, MRI скенери, голям брой професионални отзиви, само че решение за казуса му, наподобява, няма.
Тогава потребителят взема решение да зададе проблема си на ChatGPT.
Изкуственият разсъдък предлага съответна догадка за проблем с наместването на челюстта и даже разказва техника, обвързвана с позиционирането на езика. Пациентът пробва – и казусът му внезапно е решен…
„ След пет години живот с това, AI ми даде решение за минута “, споделя той в Reddit, представен от WIRED.
Историята бързо обикаля мрежата и даже съоснователят на LinkedIn, Рийд Хофман, я споделя в X. И това не е индивидуален случай – обществените мрежи преливат от разкази за пациенти, които получават точни оценки на MRI скенери и рентгенови фотоси от огромни езикови модели.
Един от най-впечатляващите случаи е този на Кортни Хофман, чийто наследник страда от рядко неврологично положение. След 17 визити при лекари за три години и все по този начин без диагноза, тя зарежда всичките му проучвания и бележки в ChatGPT.
Моделът ѝ показва синдром на закрепен гръбначен мозък – диагноза, която досега не е открита от нито един медицински експерт. Шест седмици по-късно детето минава през интервенция и „ към този момент живее нов живот “, споделя тя в подкаст на New England Journal of Medicine.
Добре пристигнали в ерата на доктор ChatGPT
Някога пациентите търсеха признаците си в Гугъл, само че през днешния ден „ доктор Гугъл “ бързо отстъпва пред „ доктор ChatGPT “. Лекарски колегии, университети и самите разработчици на AI модели се надпреварват да оценят до каква степен надеждни са тези нови „ диагностици “, по какъв начин могат да се употребяват безвредно и къде се крият рисковете.
„ Уверен съм, че това ще усъвършенства опазването на здравето “, споделя доктор Адам Родман от Харвард, доктор и учител. Според него LLM-и, свързани с медицинските досиета на пациентите, могат да революционизират взаимоотношението сред пациенти и лекари. В болничната процедура към този момент вижда по какъв начин пациенти употребяват AI: „ Една жена, на която ѝ се постановяваше да чака прекомерно дълго, качи фотография от досието си в ChatGPT. Отговорът беше безусловно верен – ставаше въпрос за заболяване на кръвта. “
Родман, който е отпред на групата, интегрираща генеративния AI в образователната стратегия на Harvard Medical School, гледа на това като на опция, а не на опасност: „ Виждам го като късмет да беседвам с пациента за това, което го тревожи. “
Но тук думата „ капацитет “ към момента е основна. Въпреки че някои проучвания демонстрират висока акуратност на AI в слагането на диагнози, резултатите внезапно падат, изключително когато потребителите – пациенти или други медицински лица – не подават цялостна или вярна информация.
В изследване на Харвард група от лекари получава набор от случаи и прави диагнози с и без помощта на изкуствен интелект. Двете групи се показват по подобен метод (76% против 74%). Но когато на AI му се постанова независимо да диагностицира пациенти – резултатът скача до 92%. Причината е, че хората постоянно отхвърлят отговора, когато той опонира на персоналното им мнение.
„ Обожават, когато се съгласява с тях, само че не му имат вяра, когато не се съгласява с тях “, изяснява Родман.
В друго огромно изследване, извършено с над 1200 участници, AI реализира успеваемост от 95% в слагането на вярната диагноза. Когато обаче хората употребяват същия инструмент, само че с цел да ги „ насочва “, точният отговор пада едвам до 33%.
Проблемът не идва единствено от логаритъма, а от заложения подтекст. Един случай разказва ненадейно главоболие и разбиране в региона на врата – евентуално рискови признаци, които се свързват с менингит. Ако не бъде упоменато, че признаците са се показали ненадейно, AI дава съвет да се вземе обезболяващо и да се легне в тъмна стая.
AI не просто бърка – той решително го прави. Докато Гугъл изкарва лист с линкове, езиковите модели като ChatGPT пишат в добре структуриран текст, който звучи като истина. „ Това го прави да наподобява по-авторитетно “, споделя доктор Алан Фостър от McGill University. Но тази убеденост може да е подвеждаща.
Специалистката по фертилитет доктор Джейми Кнопман споделя, че пациенти идват при нея с рекомендации от AI, които звучат разумно – само че не регистрират значими фактори. При ин витро, да вземем за пример, ChatGPT може да даде съвет само на база резултатите от ембрионен тест, без да вземе поради положението на маточната лигавица или историята на предходни имплантации.
„ Има просвета, която се учи. Но има и изкуство в това кой протокол ще проработи тъкмо при този пациент “, споделя тя.
Компаниите, които се занимават с AI разработка, към този момент дават отговор на предизвикването. През май OpenAI разгласи системата HealthBench – способ за оценка на медицинските отговори на ChatGPT, създаден взаимно с над 260 лекари от над 60 страни. Компанията твърди, че най-новата ѝ версия – GPT-4.1 – се показва най-малко толкоз добре, колкото и специалистите в симулирани медицински проблеми.
Microsoft от своя страна показва MAI Diagnostic Orchestrator (MAI-DxO) – AI система, която в тестови условия диагностицира пациенти четири пъти по-точно от хората. Тя употребява композиция от разнообразни LLM-и – от GPT до Grok – наподобявайки консилиум от специалисти.
„ Какъв доктор е оня, който не употребява мощността на този инструмент? “ – пита риторично доктор Бърнард Чанг, декан по здравно обучение в Harvard Medical School.
Университетът към този момент вкарва наложителни курсове за работа с AI в образованието на бъдещите лекари. И по негово мнение паралелът тук е явен: „ Преди 20 години хората се присмиваха на ‘д-р Google’, само че през днешния ден – всеки доктор го употребява. Сега сме на прага на идващото потомство. “
Тогава потребителят взема решение да зададе проблема си на ChatGPT.
Изкуственият разсъдък предлага съответна догадка за проблем с наместването на челюстта и даже разказва техника, обвързвана с позиционирането на езика. Пациентът пробва – и казусът му внезапно е решен…
„ След пет години живот с това, AI ми даде решение за минута “, споделя той в Reddit, представен от WIRED.
Историята бързо обикаля мрежата и даже съоснователят на LinkedIn, Рийд Хофман, я споделя в X. И това не е индивидуален случай – обществените мрежи преливат от разкази за пациенти, които получават точни оценки на MRI скенери и рентгенови фотоси от огромни езикови модели.
Един от най-впечатляващите случаи е този на Кортни Хофман, чийто наследник страда от рядко неврологично положение. След 17 визити при лекари за три години и все по този начин без диагноза, тя зарежда всичките му проучвания и бележки в ChatGPT.
Моделът ѝ показва синдром на закрепен гръбначен мозък – диагноза, която досега не е открита от нито един медицински експерт. Шест седмици по-късно детето минава през интервенция и „ към този момент живее нов живот “, споделя тя в подкаст на New England Journal of Medicine.
Добре пристигнали в ерата на доктор ChatGPT
Някога пациентите търсеха признаците си в Гугъл, само че през днешния ден „ доктор Гугъл “ бързо отстъпва пред „ доктор ChatGPT “. Лекарски колегии, университети и самите разработчици на AI модели се надпреварват да оценят до каква степен надеждни са тези нови „ диагностици “, по какъв начин могат да се употребяват безвредно и къде се крият рисковете.
„ Уверен съм, че това ще усъвършенства опазването на здравето “, споделя доктор Адам Родман от Харвард, доктор и учител. Според него LLM-и, свързани с медицинските досиета на пациентите, могат да революционизират взаимоотношението сред пациенти и лекари. В болничната процедура към този момент вижда по какъв начин пациенти употребяват AI: „ Една жена, на която ѝ се постановяваше да чака прекомерно дълго, качи фотография от досието си в ChatGPT. Отговорът беше безусловно верен – ставаше въпрос за заболяване на кръвта. “
Родман, който е отпред на групата, интегрираща генеративния AI в образователната стратегия на Harvard Medical School, гледа на това като на опция, а не на опасност: „ Виждам го като късмет да беседвам с пациента за това, което го тревожи. “
Но тук думата „ капацитет “ към момента е основна. Въпреки че някои проучвания демонстрират висока акуратност на AI в слагането на диагнози, резултатите внезапно падат, изключително когато потребителите – пациенти или други медицински лица – не подават цялостна или вярна информация.
В изследване на Харвард група от лекари получава набор от случаи и прави диагнози с и без помощта на изкуствен интелект. Двете групи се показват по подобен метод (76% против 74%). Но когато на AI му се постанова независимо да диагностицира пациенти – резултатът скача до 92%. Причината е, че хората постоянно отхвърлят отговора, когато той опонира на персоналното им мнение.
„ Обожават, когато се съгласява с тях, само че не му имат вяра, когато не се съгласява с тях “, изяснява Родман.
В друго огромно изследване, извършено с над 1200 участници, AI реализира успеваемост от 95% в слагането на вярната диагноза. Когато обаче хората употребяват същия инструмент, само че с цел да ги „ насочва “, точният отговор пада едвам до 33%.
Проблемът не идва единствено от логаритъма, а от заложения подтекст. Един случай разказва ненадейно главоболие и разбиране в региона на врата – евентуално рискови признаци, които се свързват с менингит. Ако не бъде упоменато, че признаците са се показали ненадейно, AI дава съвет да се вземе обезболяващо и да се легне в тъмна стая.
AI не просто бърка – той решително го прави. Докато Гугъл изкарва лист с линкове, езиковите модели като ChatGPT пишат в добре структуриран текст, който звучи като истина. „ Това го прави да наподобява по-авторитетно “, споделя доктор Алан Фостър от McGill University. Но тази убеденост може да е подвеждаща.
Специалистката по фертилитет доктор Джейми Кнопман споделя, че пациенти идват при нея с рекомендации от AI, които звучат разумно – само че не регистрират значими фактори. При ин витро, да вземем за пример, ChatGPT може да даде съвет само на база резултатите от ембрионен тест, без да вземе поради положението на маточната лигавица или историята на предходни имплантации.
„ Има просвета, която се учи. Но има и изкуство в това кой протокол ще проработи тъкмо при този пациент “, споделя тя.
Компаниите, които се занимават с AI разработка, към този момент дават отговор на предизвикването. През май OpenAI разгласи системата HealthBench – способ за оценка на медицинските отговори на ChatGPT, създаден взаимно с над 260 лекари от над 60 страни. Компанията твърди, че най-новата ѝ версия – GPT-4.1 – се показва най-малко толкоз добре, колкото и специалистите в симулирани медицински проблеми.
Microsoft от своя страна показва MAI Diagnostic Orchestrator (MAI-DxO) – AI система, която в тестови условия диагностицира пациенти четири пъти по-точно от хората. Тя употребява композиция от разнообразни LLM-и – от GPT до Grok – наподобявайки консилиум от специалисти.
„ Какъв доктор е оня, който не употребява мощността на този инструмент? “ – пита риторично доктор Бърнард Чанг, декан по здравно обучение в Harvard Medical School.
Университетът към този момент вкарва наложителни курсове за работа с AI в образованието на бъдещите лекари. И по негово мнение паралелът тук е явен: „ Преди 20 години хората се присмиваха на ‘д-р Google’, само че през днешния ден – всеки доктор го употребява. Сега сме на прага на идващото потомство. “
Източник: profit.bg
КОМЕНТАРИ




