Проучване установи, че ChatGPT разпространява неточности, когато отговаря на въпроси за лекарства
Според ново проучване е открито, че ChatGPT споделя неточна информация по отношение на използването на опиати.
В изследване, ръководено от университета Лонг Айлънд (LIU) в Бруклин, Ню Йорк, съвсем 75% от обвързваните с медикаменти, прегледани от фармацевти отговори от generative AI chatbot се оказаха непълни или неверни.
В някои случаи ChatGPT, създаден от OpenAI в Сан Франциско и пуснат в края на 2022 година, даде „ неточни отговори, които биха могли да застрашат пациентите “, Американското сдружение на фармацевтите в здравната система (ASHP), със седалище в Бетесда, Мериленд, съобщи в известие за пресата.
ChatGPT също генерира „ подправени цитати “, когато е помолен да цитира препратки в поддръжка на някои отговори, също откри същото изследване.
Заедно с нейният екип, водещият създател на проучването Сара Гросман, PharmD, доцент по фармацевтична процедура в LIU, зададе на AI chatbot действителни въпроси, които в началото бяха зада...
Прочетете целия текст »