Чатботовете, базирани на алгоритми с изкуствен интелект, могат да представляват

...
Чатботовете, базирани на алгоритми с изкуствен интелект, могат да представляват
Коментари Харесай

Изкуствения интелект може да получава халюцинации, предупреди висш ръководител в Google

Чатботовете, основани на логаритми с изкуствен интелект, могат да съставляват опасност за потребителите заради своето несъвършенство - те имат нещо като " илюзия ", съобщи старши вицепрезидентът на Гугъл и началник на Гугъл Search Прабхакар Рагаван в изявление за немския вестник Welt am Sonntag.

" Видът на изкуствения разсъдък, за който приказваме в този момент, от време на време получава това, което ние хората назоваваме халюцинации. Това значи, че машината дава безапелационен, само че изцяло фиктивен отговор ", споделя господин Рагаван. Той добави, че една от главните цели а разработчиците е да се сведат до най-малко сходни произшествия.
-->
Гугъл за първи път стартира да губи в региона на технологиите за уеб търсене, откакто Microsoft си обезпечи 10 милиарда $ поддръжка от OpenAI, която неотдавна показа революционния план ChatGPT. Моделът на езиковия изкуствен интелект дава отговор на поръчките по удивително човешки метод, като чатботът е бил поканен на изявление за работа и е написал дипломна работа.

Гигантът в търсенето неотдавна показа своя чатбот Bard, който не съумя да се въздържи от " халюцинации " даже в реклама - той даде явно погрешен отговор на въпрос по астрономия. Това разгневи научната общественост, а акциите на притежаваната от Гугъл компания Alphabet спаднаха с цели 8%. " Ние, несъмнено, осъзнаваме спешността на решаването на казуса, само че усещаме и огромна отговорност. И сигурно не желаеме да подвеждаме обществеността ", добави ръководителят на Гугъл Search.
Източник: standartnews.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР