Коя е думата на 2023 година ?
Вече знаем коя е думата на 2023 година съгласно Речника на Кеймбридж. И както можем да чакаме, тя е много настояща. По-особеното в тази ситуация обаче е, че даже към този момент има ново определение за нея, което се отнася за изкуствения разсъдък, генериращ погрешна информация.
Прочетете още
Думата на изминаващата година е " халюциниране ". С обичайното определение за нея евентуално всеки е наясно - " да виждаме, чуваме, усещаме или помирисваме нещо, което не е действително, само че е провокирано от здравословно положение или използвана субстанция.
В новото в допълнение значение съгласно речника на Кеймбридж обаче " халюциниране " към този момент може да се отнася и до следното: " Когато изкуствен интелект (компютърна система, която има някои от качествата, които има човешкият мозък, като да вземем за пример способността да създава език по метод, който наподобява човешки) халюцинира, той създава погрешна информация. "
Изборът на тъкмо тази дума за 2023 година е обвързван с повишаването на интереса към принадлежности за генеративен изкуствен интелект, какъвто е ChatGPT да вземем за пример, през миналите месеци. Подобни стратегии фактически могат да генерират текстове, които звучат правдоподобно, само че има добра причина не всеки път да им се доверяваме. Оказва се, че постоянно се употребяват подправени, подвеждащи или измислени " обстоятелства ". Оттам и определението, че " халюцинират ".
Фактът, че изкуствения разсъдък може да " халюцинира ", ни припомня, че би трябвало да мислим сериозно до момента в който го използваме. Той несъмнено е потребен и добър в прехвърлянето на големи количества данни, с цел да извлече характерна информация и да я консолидира. Но колкото повече автентичност търсим от него, толкоз по-вероятно е да ни заблуди.
Освен това Уендалин Никълс, която е част от екипа на речника на Кеймбридж, акцентира, че щом става дума за основаване на вярна и настояща информация, човешките опит и познание безспорно са по-важни и търсени.
И това не е просто изказване, което да успокои хората, които се усещат застрашени, че могат да изгубят работата си поради изкуствения разсъдък. Има действителни образци, които потвърждават, че той може да бъде подвеждащ.
Така да вземем за пример адвокатска адвокатска фирма в Съединени американски щати употребява ChatGPT за правно изследване, което обаче води до цитирането на фиктивни случаи в съда. Друг образец е промоционалното видео на Гугъл за неговия чатбот Bard, който позволи фактическа неточност по отношение на галактическия телескоп James Webb, написа Independent.
Източник: lifestyle.bg
Прочетете още
Думата на изминаващата година е " халюциниране ". С обичайното определение за нея евентуално всеки е наясно - " да виждаме, чуваме, усещаме или помирисваме нещо, което не е действително, само че е провокирано от здравословно положение или използвана субстанция.
В новото в допълнение значение съгласно речника на Кеймбридж обаче " халюциниране " към този момент може да се отнася и до следното: " Когато изкуствен интелект (компютърна система, която има някои от качествата, които има човешкият мозък, като да вземем за пример способността да създава език по метод, който наподобява човешки) халюцинира, той създава погрешна информация. "
Изборът на тъкмо тази дума за 2023 година е обвързван с повишаването на интереса към принадлежности за генеративен изкуствен интелект, какъвто е ChatGPT да вземем за пример, през миналите месеци. Подобни стратегии фактически могат да генерират текстове, които звучат правдоподобно, само че има добра причина не всеки път да им се доверяваме. Оказва се, че постоянно се употребяват подправени, подвеждащи или измислени " обстоятелства ". Оттам и определението, че " халюцинират ".
Фактът, че изкуствения разсъдък може да " халюцинира ", ни припомня, че би трябвало да мислим сериозно до момента в който го използваме. Той несъмнено е потребен и добър в прехвърлянето на големи количества данни, с цел да извлече характерна информация и да я консолидира. Но колкото повече автентичност търсим от него, толкоз по-вероятно е да ни заблуди.
Освен това Уендалин Никълс, която е част от екипа на речника на Кеймбридж, акцентира, че щом става дума за основаване на вярна и настояща информация, човешките опит и познание безспорно са по-важни и търсени.
И това не е просто изказване, което да успокои хората, които се усещат застрашени, че могат да изгубят работата си поради изкуствения разсъдък. Има действителни образци, които потвърждават, че той може да бъде подвеждащ.
Така да вземем за пример адвокатска адвокатска фирма в Съединени американски щати употребява ChatGPT за правно изследване, което обаче води до цитирането на фиктивни случаи в съда. Друг образец е промоционалното видео на Гугъл за неговия чатбот Bard, който позволи фактическа неточност по отношение на галактическия телескоп James Webb, написа Independent.
Източник: lifestyle.bg
Източник: trafficnews.bg
КОМЕНТАРИ




