Речникът на “Кеймбридж” обяви думата на годината
Традиционното пояснение за " халюцинирам " е " да виждаш, чуваш и усещаш нещо, което не съществува ". Сега обаче към тази формулировка се прибавя и друго - когато изкуственият разсъдък стартира да създава погрешна информация.
Експерти от университета в Кеймбридж показват, че в действителност въвеждането на тази нова формулировка съставлява " моментна фотография " на човешкото усещане по отношение на изкуствения разсъдък и импулсът да му приписваме човешки качества (т.нар. антропоморфизъм). Използването на думата " халюцинирам " за ИИ в действителност отразява дълбока смяна във усещането.
Халюцинациите на изкуствения разсъдък се назовават още “конфабулации ” и постоянно наподобяват изцяло безсмислени. Могат обаче да наподобяват и изцяло правдоподобни. Адвокатска адвокатска фирма в Съединени американски щати употребява ChatGPT за правни проучвания, което докара до цитиране на фиктивни случаи в съда, да вземем за пример, пишат от “Кеймбридж ”.
От там предизвестяват, че способността на ИИ да халюцинира в действителност демонстрира потребността от сериозно мислене у хората.
Така наречените “халюцинации “ пораждат, когато ИИ модели като ChatGPT на OpenAI или Bard на Гугъл изфабрикуват напълно информация, държейки по този начин, като че ли показват обстоятелства. Така през февруари в промоционален видеоклип на Гугъл за Bard чатботът направи погрешно изказване за галактическия телескоп James Webb.
От OpenAI показаха, че даже най-съвременните модели са склонни да основават неистини и да халюцинират. Затова компанията предприе нова тактика, с цел да се пребори с халюцинациите на AI - моделите да бъдат обучавани и да да се възнаграждават за всяка самостоятелна вярна стъпка в разсъждението, когато стигат до отговор, вместо единствено за вярното дефинитивно умозаключение.
Експерти от университета в Кеймбридж показват, че в действителност въвеждането на тази нова формулировка съставлява " моментна фотография " на човешкото усещане по отношение на изкуствения разсъдък и импулсът да му приписваме човешки качества (т.нар. антропоморфизъм). Използването на думата " халюцинирам " за ИИ в действителност отразява дълбока смяна във усещането.
Халюцинациите на изкуствения разсъдък се назовават още “конфабулации ” и постоянно наподобяват изцяло безсмислени. Могат обаче да наподобяват и изцяло правдоподобни. Адвокатска адвокатска фирма в Съединени американски щати употребява ChatGPT за правни проучвания, което докара до цитиране на фиктивни случаи в съда, да вземем за пример, пишат от “Кеймбридж ”.
От там предизвестяват, че способността на ИИ да халюцинира в действителност демонстрира потребността от сериозно мислене у хората.
Така наречените “халюцинации “ пораждат, когато ИИ модели като ChatGPT на OpenAI или Bard на Гугъл изфабрикуват напълно информация, държейки по този начин, като че ли показват обстоятелства. Така през февруари в промоционален видеоклип на Гугъл за Bard чатботът направи погрешно изказване за галактическия телескоп James Webb.
От OpenAI показаха, че даже най-съвременните модели са склонни да основават неистини и да халюцинират. Затова компанията предприе нова тактика, с цел да се пребори с халюцинациите на AI - моделите да бъдат обучавани и да да се възнаграждават за всяка самостоятелна вярна стъпка в разсъждението, когато стигат до отговор, вместо единствено за вярното дефинитивно умозаключение.
Източник: frognews.bg
КОМЕНТАРИ




