Стартиран през ноември 2022 г., ChatGPT е чатбот, който може

...
Стартиран през ноември 2022 г., ChatGPT е чатбот, който може
Коментари Харесай

Успехът на чатбота на изпита за медицински лиценз

Стартиран през ноември 2022 година, ChatGPT е чатбот, който може освен да взе участие в човешки диалог, само че и да дава точни отговори на въпроси в необятен набор от области на знанието. Чатботът, основан от компанията OpenAI, се основава на семейство от „ огромни езикови модели “ – логаритми, които могат да разпознават, плануват и генерират текст въз основа на модели, които разпознават в набори от данни, съдържащи стотици милиони думи.

В изследване, оповестено в PLOS Digital Health тази седмица, откривателите оповестяват, че ChatGPT е осъществен на или покрай прага за прекосяване на медицинския лицензионен изпит в Съединени американски щати (USMLE) – повсеместен изпит от три елементи, който лекарите би трябвало да преминат, преди да практикуват медицина в Съединените щати. В публицистична публикация, съпътстваща публикацията, Лео Антъни Сели, основен теоретичен помощник в Института за здравно инженерство и просвета на Масачузетския софтуерен институт, практикуващ доктор в Медицинския център на Бет Израел Дяконес и доцент в Медицинското учебно заведение в Харвард, и неговите съавтори настояват, че Успехът на ChatGPT на този изпит би трябвало да бъде сигнал за пробуждане за здравната общественост.

Въпрос: Какво съгласно вас разкрива триумфът на ChatGPT в USMLE за естеството на здравното обучение и оценката на студентите?

О: Рамкирането на медицинските познания като нещо, което може да бъде капсулирано във въпроси с голям брой отговори, основава когнитивна рамка на подправена сигурност. Медицинските познания постоянно се преподават като закрепен модел на показване на здраве и болест. Ефектите от лекуването се показват като постоянни във времето макар непрекъснато изменящите се модели на процедура. Механистичните модели се предават от учители на възпитаници с дребен акцент върху това какъв брой надеждни са били получени тези модели, несигурността, която продължава да съществува към тях, и по какъв начин те би трябвало да бъдат пренастроени, с цел да отразяват напредъка, който заслужава да бъде включен в практиката.

ChatGPT устоя изпит, който възнаграждава запомнянето на съставените елементи на системата, вместо да проучва по какъв начин работи, по какъв начин се проваля, по какъв начин е основана, по какъв начин се поддържа. Неговият триумф демонстрира някои от минусите в метода, по който образоваме и оценяваме студентите по медицина. Критичното мислене изисква схващане, че главните истини в медицината непрестанно се трансформират, и по-важното, схващане по какъв начин и за какво се трансформират.

Въпрос: Какви стъпки смятате, че здравната общественост би трябвало да предприеме, с цел да промени метода, по който студентите се преподават и правят оценка?

О: Ученето е обвързвано с потребление на настоящото количество познания, схващане на пропуските в него и търсене на запълване на тези пропуски. Изисква се да се чувствате удобно и да можете да изследвате несигурностите. Ние се проваляме като учители, като не учим учениците по какъв начин да схващат пропуските в настоящия размер от познания. Ние ги проваляме, когато проповядваме сигурност вместо любознание и надменност пред примирение.

Медицинското обучение също по този начин изисква да сте наясно с пристрастията в метода, по който медицинските познания се основават и валидират. Тези пристрастия се адресират най-добре посредством усъвършенстване на когнитивното многообразие в общността. Повече от всеки път има потребност да се въодушевява междудисциплинарно взаимно образование и решение на проблеми. Студентите по медицина се нуждаят от умения за просвета за данни, които ще разрешат на всеки клиницист да способства, непрестанно да прави оценка и прекалибрира медицинските познания.

В: Виждате ли някаква позитивна страна за триумфа на ChatGPT на този изпит? Има ли потребни способи, по които ChatGPT и други форми на AI могат да допринесат за практикуването на медицината?

О: Няма подозрение, че огромните езикови модели (LLM) като ChatGPT са доста мощни принадлежности за пресяване на наличие оттатък опциите на специалисти или даже групи от специалисти и добиване на познания. Ще би трябвало обаче да се заемем с казуса с пристрастията на данните, преди да можем да използваме LLMs и други технологии за изкуствен интелект. Масата от познания, върху които се образоват LLM, както медицински, по този начин и други, е доминирана от наличие и проучвания от добре финансирани институции в страни с високи приходи. Не е внушителен за по-голямата част от света.

Научихме също, че даже механистичните модели на здраве и болест могат да бъдат предубедени. Тези входове се подават към енкодери и трансформатори, които не обръщат внимание на тези отклонения. Основните истини в медицината непрестанно се трансформират и сега няма метод да се дефинира по кое време главните истини са се отклонили. LLM не правят оценка качеството и пристрастието на наличието, по което се образоват. Те също по този начин не обезпечават равнището на неустановеност към тяхната продукция. Но съвършеното не трябва да бъде зложелател на положителното. Има голяма опция за възстановяване на метода, по който доставчиците на здравни услуги сега вземат клинични решения, за които знаем, че са опетнени с несъзнателни пристрастия. Не се колебая, че AI ще извърши обещанието си, откакто усъвършенстваме въвеждането на данни.

Източник: novini247.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР