Системата показва интелигентност, близка до човешката Напредъкът на изкуствения интелект ChatGPT

...
Системата показва интелигентност, близка до човешката
Напредъкът на изкуствения интелект ChatGPT
Коментари Харесай

Новият ChatGPT издържа изпита за лекар, постави диагноза за секунди

Системата демонстрира просветеност, близка до човешката

Напредъкът на изкуствения разсъдък ChatGPT изненада даже медицинските експерти
(снимка: CC0 Public Domain)

Д-р Айзък Кохане, експерт по осведомителни технологии и медицина в Харвард, и двама негови сътрудници тестваха изкуствения разсъдък GPT-4 в ролята на доктор. Резултатите са впечатляващи – чатботът се оказа по-добър от доста лекари.

Пуснат през март тази година, AI ботът ChatGPT с езиков модел GPT-4 дава отговор вярно на 90% от въпросите в медицинския лицензионен изпит. Той превъзхожда ChatGPT, основан на езиковите модели GPT-3 и GPT-3.5, и даже някои лекари, които към този момент имат лицензи, отбелязва Insider.

Резултатите от опита са оповестени в книгата „ Революцията на изкуствения разсъдък в медицината ”, написана взаимно от доктор Кохане, самостоятелния публицист Кери Голдбърг и вицепрезидента по проучвания в Microsoft – Питър Лий.

GPT-4 се показва чудесно освен като проверяващ и фактолог, само че и като преводач. Той сортира здравното досие на пациента на португалски и перифразира натоварените с диалект документи в текст, с който даже шестокласник може да се оправи.

Изкуственият разсъдък предлага потребни препоръки на лекарите по какъв начин да се държат до леглото и по какъв начин да приказват на пациента за положението му на явен, само че съчувствен език. Машината може да обработва обемни отчети от прегледи, като мигновено обобщава наличието им.

Системата генерира отговорите си във формат, който демонстрира просветеност, близка до човешката, само че откривателите въпреки всичко заключават, че AI е стеснен в мислите си от шаблони – GPT-4 към момента не знае по какъв начин да се впусне в пълноценно размишление с причинно-следствени връзки.
още по темата
Когато обаче на системата са препоръчани данни от действителен случай, тя диагностицира вярно рядко заболяване на равнище експерт, с години на образование и процедура.

Д-р Кохейн се радва, от една страна, че в обозримо бъдеще подобен инструмент ще бъде наличен за милиони хора, само че, въпреки това – той към момента не знае по какъв начин да направи платформата безвредна за потребителя.

GPT-4 не постоянно е благонадежден в отговорите си и книгата дава доста образци за разнообразни по тип неточности. Освен това AI има податливост да упорства, че е прав, когато му се посочат тези неточности – това събитие към този момент се назовава „ халюцинации ” в техническите среди.

В своя отбрана GPT-4 един път декларирал: „ Нямам желание да подлъгвам или заблуждавам някого, само че от време на време върша неточности и догатки въз основа на непълни или неточни данни. Не върша клинични преценки и нямам етична отговорност като доктор или здравна сестра ”.

Като една от ограниченията за отбрана, създателите на книгата оферират да се проведат няколко сесии с GPT-4, тъй че самият AI да „ препрочита ” или „ ревизира ” личната си работа със „ пресен взор ”. Това от време на време оказва помощ за разкриване на неточности: GPT-4 признава дискретно, че е сбъркал няколко пъти.

Разбира се, постоянно работата на изкуствения разсъдък може да бъде тествано от медицински експерт.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР