Питате Google какво ви е - отговорът може да дойде от индийски лекар
Google е премахнал от обобщението си с изкуствен интелект AI Overviews отговори на някои въпроси, свързани със здравето.
Причината е следствие The Guardian, което открива, че съдържат подвеждаща и неточна здравна информация, излагаща потребителите на риск.
Според водещото английско издание AI Overviews дава многочислени числа с малко подтекст в отговор на въпроси като „ Какъв е естественият диапазон при проучвания на черния дроб? “ и „ Какъв е естественият диапазон при проучвания на чернодробната функционалност? “
Отговорите не вземат поради никакви разлики, които биха могли да зародят въз основа на народност, пол, етническа принадлежност или възраст, добавя Euronews. Резултатът от търсенето и за двата въпроса се появява с определени параграфи, извлечени от най-релевантния уеб страница за въпроса на потребителя, в горната част на резултатите.
И за двата въпроса Гугъл базира отговорите си въз основа на равнищата на разнообразни субстанции в черния дроб, като аланин (ALT), регулиращ производството на сила за организма, аспартат (AST), идентифициращ повредени кръвни кафези, и алкална фосфатаза (ALP), помагаща за разграждане на протеините.
Търсачката извлича цифрите от Max Healthcare, индийска верига лечебни заведения с нестопанска цел в Ню Делхи, открива The Guardian.
Разследването открива, че вариации на тези въпроси, като „ проучване за чернодробна функционалност lft референтен диапазон “ или „ lft тест референтен диапазон “, генерират AI систематизирания.
Изследванията за чернодробна функционалност са кръвни проби, които мерят протеините и ензимите, с цел да ревизират по какъв начин действа черният дроб, добавя Euronews.
Резултатите в търсачката поучават потребителите с рак на панкреаса да заобикалят храни с високо наличие на мазнини, което съгласно специалисти, представени от The Guardian, не е добра рекомендация, защото може да усили риска от съдбовен край за пациентите.
Разследването идва в миг, в който специалисти сигнализират, че AI чатботовете „ халюцинират “, което значи, че измислят подправени отговори, когато не разполагат с вярна информация.
Междувременно Гугъл разгласи през уикенда, че прибавя AI Overviews и към своята услуга за е-поща Gmail. Новата функционалност ще разрешава на потребителите да задават въпроси и да получават отговори за своите имейли, вместо да ги търсят с основни думи.
Причината е следствие The Guardian, което открива, че съдържат подвеждаща и неточна здравна информация, излагаща потребителите на риск.
Според водещото английско издание AI Overviews дава многочислени числа с малко подтекст в отговор на въпроси като „ Какъв е естественият диапазон при проучвания на черния дроб? “ и „ Какъв е естественият диапазон при проучвания на чернодробната функционалност? “
Отговорите не вземат поради никакви разлики, които биха могли да зародят въз основа на народност, пол, етническа принадлежност или възраст, добавя Euronews. Резултатът от търсенето и за двата въпроса се появява с определени параграфи, извлечени от най-релевантния уеб страница за въпроса на потребителя, в горната част на резултатите.
И за двата въпроса Гугъл базира отговорите си въз основа на равнищата на разнообразни субстанции в черния дроб, като аланин (ALT), регулиращ производството на сила за организма, аспартат (AST), идентифициращ повредени кръвни кафези, и алкална фосфатаза (ALP), помагаща за разграждане на протеините.
Търсачката извлича цифрите от Max Healthcare, индийска верига лечебни заведения с нестопанска цел в Ню Делхи, открива The Guardian.
Разследването открива, че вариации на тези въпроси, като „ проучване за чернодробна функционалност lft референтен диапазон “ или „ lft тест референтен диапазон “, генерират AI систематизирания.
Изследванията за чернодробна функционалност са кръвни проби, които мерят протеините и ензимите, с цел да ревизират по какъв начин действа черният дроб, добавя Euronews.
Резултатите в търсачката поучават потребителите с рак на панкреаса да заобикалят храни с високо наличие на мазнини, което съгласно специалисти, представени от The Guardian, не е добра рекомендация, защото може да усили риска от съдбовен край за пациентите.
Разследването идва в миг, в който специалисти сигнализират, че AI чатботовете „ халюцинират “, което значи, че измислят подправени отговори, когато не разполагат с вярна информация.
Междувременно Гугъл разгласи през уикенда, че прибавя AI Overviews и към своята услуга за е-поща Gmail. Новата функционалност ще разрешава на потребителите да задават въпроси и да получават отговори за своите имейли, вместо да ги търсят с основни думи.
Източник: profit.bg
КОМЕНТАРИ




