Откъде всъщност изкуственият интелект черпи своята информация?
Замисляли ли сте се от кое място в действителност огромните езикови модели (LLM) като ChatGPT черпят фактическа информация? В инфографиката по-долу са класирани най-често цитираните уебсайтове от AI, въз основа на разбор от юни 2025 година на над 150 000 позовавания на езикови модели. Тя разкрива какъв брой доста чатботовете разчитат на наличие, генерирано от консуматори, което повдига въпроси за слабите места на днешните най-хубави AI принадлежности.
Данните за тази визуализация на Visual Capitalist са от Semrush и демонстрират какъв брой постоянно AI моделите цитират разнообразни домейни, когато дават информация.
Reddit е отпред в листата с периодичност на цитиране от 40.1%, следван от Wikipedia с 26.3%. Това акцентира какъв брой постоянно LLM разчитат на полемики в отворени конгреси и наличие, поддържано от общността.
Тези домейни оферират благосъстояние от познания, генерирани от потребителите, само че отвореният им темперамент на редактиране повдига опасения по отношение на точността и пристрастността. Високата взаимозависимост демонстрира, че AI може да усилва най-видимите или най-популярни разкази, даже и да не са постоянно тествани.
Сред фрапиращите образци е предлагането на ChatGPT към консуматори да пречистят водата си с белина или даже да я смесят с оцет – а миксирането на хлорна белина с оцет образува хлорен газ, който е отровен.
Три съществени риска от потребителското съдържаниеРазпространение на дезинформация и клюки: Тъй като наличието не постоянно се модерира от специалисти в региона, AI може несъзнателно да повтаря неточни или пристрастни твърдения; Усилване на резултата на ехото: Популярни, само че непотвърдени разкази могат да се повтарят, в случай че придобият известност, като засенчват по-малко забележими, само че по-точни източници;Липса на престиж: Особено във връзка с значими тематики (здраве, право, финанси), уеб страниците, основани от консуматори, не разполагат с нужния публицистичен контрол за надеждно пречистване на наличието.AI изкуствен интелект дезинформация обстоятелства сайтове
Данните за тази визуализация на Visual Capitalist са от Semrush и демонстрират какъв брой постоянно AI моделите цитират разнообразни домейни, когато дават информация.
Reddit е отпред в листата с периодичност на цитиране от 40.1%, следван от Wikipedia с 26.3%. Това акцентира какъв брой постоянно LLM разчитат на полемики в отворени конгреси и наличие, поддържано от общността.
Тези домейни оферират благосъстояние от познания, генерирани от потребителите, само че отвореният им темперамент на редактиране повдига опасения по отношение на точността и пристрастността. Високата взаимозависимост демонстрира, че AI може да усилва най-видимите или най-популярни разкази, даже и да не са постоянно тествани.
Сред фрапиращите образци е предлагането на ChatGPT към консуматори да пречистят водата си с белина или даже да я смесят с оцет – а миксирането на хлорна белина с оцет образува хлорен газ, който е отровен.
Три съществени риска от потребителското съдържаниеРазпространение на дезинформация и клюки: Тъй като наличието не постоянно се модерира от специалисти в региона, AI може несъзнателно да повтаря неточни или пристрастни твърдения; Усилване на резултата на ехото: Популярни, само че непотвърдени разкази могат да се повтарят, в случай че придобият известност, като засенчват по-малко забележими, само че по-точни източници;Липса на престиж: Особено във връзка с значими тематики (здраве, право, финанси), уеб страниците, основани от консуматори, не разполагат с нужния публицистичен контрол за надеждно пречистване на наличието.AI изкуствен интелект дезинформация обстоятелства сайтове
Източник: economic.bg
КОМЕНТАРИ




