Коя е думата на 2023 година
Вече знаем коя е думата на 2023 година съгласно Речника на Кеймбридж. И както можем да чакаме, тя е много настояща. По-особеното в тази ситуация обаче е, че даже към този момент има ново определение за нея, което се отнася за изкуствения разсъдък, генериращ погрешна информация.
Кой е изразът на 2022 година
Тежката дума на речника на Oxford
Думата на изминаващата година е " халюциниране ". С обичайното определение за нея евентуално всеки е наясно - " да виждаме, чуваме, усещаме или помирисваме нещо, което не е действително, само че е провокирано от здравословно положение или използвана субстанция.
В новото в допълнение значение съгласно речника на Кеймбридж обаче " халюциниране " към този момент може да се отнася и до следното: " Когато изкуствен интелект (компютърна система, която има някои от качествата, които има човешкият мозък, като да вземем за пример способността да създава език по метод, който наподобява човешки) халюцинира, той създава погрешна информация. "
Изборът на тъкмо тази дума за 2023 година е обвързван с повишаването на интереса към принадлежности за генеративен изкуствен интелект, какъвто е например, през миналите месеци. Подобни стратегии фактически могат да генерират текстове, които звучат правдоподобно, само че има добра причина не всеки път да им се доверяваме. Оказва се, че постоянно се употребяват подправени, подвеждащи или измислени " обстоятелства ". Оттам и определението, че " халюцинират ".

Фактът, че изкуствения разсъдък може да " халюцинира ", ни припомня, че би трябвало да мислим сериозно до момента в който го използваме. Той несъмнено е потребен и добър в прехвърлянето на големи количества данни, с цел да извлече характерна информация и да я консолидира. Но колкото повече автентичност търсим от него, толкоз по-вероятно е да ни заблуди.
Освен това Уендалин Никълс, която е част от екипа на речника на Кеймбридж, акцентира, че щом става дума за основаване на вярна и настояща информация, човешките опит и познание безспорно са по-важни и търсени.
И това не е просто изказване, което да успокои хората, които се усещат застрашени, че могат да изгубят работата си поради изкуствения разсъдък. Има действителни образци, които потвърждават, че той може да бъде подвеждащ.
Apple GPT - още един състезател в конкуренцията за изкуствен интелект
Apple изостава
Така да вземем за пример адвокатска адвокатска фирма в Съединени американски щати употребява ChatGPT за правно изследване, което обаче води до цитирането на фиктивни случаи в съда. Друг образец е промоционалното видео на Гугъл за неговия чатбот Bard, който позволи фактическа неточност по отношение на галактическия телескоп James Webb, написа Independent.
Кой е изразът на 2022 година
Тежката дума на речника на Oxford
Думата на изминаващата година е " халюциниране ". С обичайното определение за нея евентуално всеки е наясно - " да виждаме, чуваме, усещаме или помирисваме нещо, което не е действително, само че е провокирано от здравословно положение или използвана субстанция.
В новото в допълнение значение съгласно речника на Кеймбридж обаче " халюциниране " към този момент може да се отнася и до следното: " Когато изкуствен интелект (компютърна система, която има някои от качествата, които има човешкият мозък, като да вземем за пример способността да създава език по метод, който наподобява човешки) халюцинира, той създава погрешна информация. "
Изборът на тъкмо тази дума за 2023 година е обвързван с повишаването на интереса към принадлежности за генеративен изкуствен интелект, какъвто е например, през миналите месеци. Подобни стратегии фактически могат да генерират текстове, които звучат правдоподобно, само че има добра причина не всеки път да им се доверяваме. Оказва се, че постоянно се употребяват подправени, подвеждащи или измислени " обстоятелства ". Оттам и определението, че " халюцинират ".

Фактът, че изкуствения разсъдък може да " халюцинира ", ни припомня, че би трябвало да мислим сериозно до момента в който го използваме. Той несъмнено е потребен и добър в прехвърлянето на големи количества данни, с цел да извлече характерна информация и да я консолидира. Но колкото повече автентичност търсим от него, толкоз по-вероятно е да ни заблуди.
Освен това Уендалин Никълс, която е част от екипа на речника на Кеймбридж, акцентира, че щом става дума за основаване на вярна и настояща информация, човешките опит и познание безспорно са по-важни и търсени.
И това не е просто изказване, което да успокои хората, които се усещат застрашени, че могат да изгубят работата си поради изкуствения разсъдък. Има действителни образци, които потвърждават, че той може да бъде подвеждащ.
Apple GPT - още един състезател в конкуренцията за изкуствен интелект
Apple изостава
Така да вземем за пример адвокатска адвокатска фирма в Съединени американски щати употребява ChatGPT за правно изследване, което обаче води до цитирането на фиктивни случаи в съда. Друг образец е промоционалното видео на Гугъл за неговия чатбот Bard, който позволи фактическа неточност по отношение на галактическия телескоп James Webb, написа Independent.
Източник: lifestyle.bg
КОМЕНТАРИ




