Няколко дни след като Google и Microsoft обявиха, че търсачките

...
Няколко дни след като Google и Microsoft обявиха, че търсачките
Коментари Харесай

Хората харесват измамници, звучащи авторитетно. AI чатботовете умеят това

Няколко дни откакто Гугъл и Microsoft оповестиха, че търсачките им ще дават резултати, генерирани от програмен продукт с изкуствен интелект, доста хора стартира да ги тормози мисълта, че на тези нови помощници не би трябвало да се има вяра.    В края на краищата, даже самите разработчици на AI в Гугъл предизвестиха, че чатботовете ще бъдат просто едни " стохастични папагали " (вероятно кряскайки неща, които са неверни, глупави или обидни) и " склонни към халюцинации " (просто ще си измислят неща), отбелязва Адам Роджърс в публикация за Business Insider, озаглавена.   Ботовете, основани на това, което е известно като необятни езикови модели (LLM), " са подготвени да предсказват най-вероятното изказване ", написа предходната година екип на DeepMind, притежаваната от Alphabet AI компания, в презентация за рисковете от LLM. " И въпреки всичко, дали едно изказване е най-вероятното, или не, не е благонадежден индикатор дали то е вярно. "   Не лиши доста време преди самите чатботове да дават доказателства за това. Миналата седмица реклама на бота Bard на Гугъл сподели, че той дава неверен отговор на въпрос. Компанията понесе многомилиарден удар поради цената на акциите си. Отговорите, които ботът на Bing, Сидни, даде в откритата си проява, не съумяха да устоят една обикновена инспекции на обстоятелствата.

Технологичният хайлайф шеговито стартира да назовава ботовете mansplaining as a service, показва Роджърс (терминът " mansplaining " се употребява, с цел да опише случаите, когато мъж  изяснява нещо на жена по благосклонен или застъпнически начин).    Въпреки че през цялото време знаем, че нашите нови роботи библиотекари надълбоко бъркат, хората са подготвени да ги употребяват и да работят въз основа на отговорите, които им дават. Кое е това, което кара човешките същества да се доверяват на машина, за която знаем, че е ненадеждна?   Истината е, че след хилядолетия диспути философите, психолозите и невролозите не са се обединили към пояснение за какво хората вземат решение да имат вяра в всякакви неща или какво въобще са вярванията, разяснява създателят и прибавя, че самият той има някои съмнения за какво е евентуално да се влюбим в номерата на ChatGPT. „ Ние, хората, си падаме по хлъзгави измамници, звучащи впечатляващо и авторитетно. А ботовете просто ще станат все по-добри в това да ни мамят “, написа той.

  Джо Витриол, политолог от университета Лехай, който учи дезинформацията, споделя, че чака хората да " одобряват отговорите на ботовете, стъпвайки на личните си предразсъдъци ". С други думи, хората ще повярват на чатбот, в случай че той им споделя неща, които дават отговор на към този момент съществуващите им вярвания и отзиви - тъкмо както го вършат с обичайните резултати от Гугъл. Дали чатботът споделя истината или халюцинира, в действителност няма да има значение.
  " Наивните консуматори могат да възнаградят ботът с доверие, което даже и хората не получават ", споделя още Витриол. " Чудя се дали хората ще бъдат склонни да подценен, или да отхвърлят опцията ботът, изключително в сегашната си форма, да страда от същите пристрастия и неточности в разсъжденията като хората. "
Затова способността на чатбота да генерира прозаичност, за разлика от просто лист с потребни връзки, става рискова. Хората предават вярванията си обществено, посредством езика. И когато доста от нас споделят една система от вярвания, ние формираме по-сплотена и хармонична група. Но тази система може да бъде хакната. Защото добре комуникираните хрумвания – с верните думи, изречения и звук – могат да наподобяват по-убедителни, отбелязва създателят на Business Insider. 

  Друго допустимо пояснение за какво сме толкоз привлечени от чатботовете е, че имаме потребност да ни се изяснява. На някакво главно човешко равнище е в действителност удовлетворяващо да подменим объркването сигурно. Това ни кара да се усещаме умни и че направляваме нещата, върху които нямаме надзор, написа още Роджърс.
  Проблемът е, че в действителност не знаем какво кара хората да се поддават на едно пояснение пред друго. 
Някои проучвания демонстрират, че обясненията с най-голяма мощ са тези, които са най-прости и най-широко използвани. Според други, когато им е даден избор, хората са по-склонни да имат вяра на истории, които съдържат повече детайлности.
  " Не имам вяра да има консенсус за това кое прави едно пояснение привлекателно ", споделя Дънкан Уотс, социолог, който преподава курс в Университета на Пенсилвания, наименуван " Да разбираем обясненията ".

Каквото и да е това необяснимо качество обаче AI чатботовете наподобява го имат.
Само няколко дни преди Гугъл и Microsoft да разгласят идната си ботификация, екип от обществени учени от Станфорд разгласява завладяващо изследване. 
Учените демонстрират на хиляди хора къси публикации по горещи тематики като оръжията и въглеродните налози. Някои версии са били написани от GPT-3, други от човек. След това учените мерят до каква степен хората са трансформирали мнението си въз основа на публикациите. Оказва се, че известията, генерирани от AI, са били също толкоз безапелационни, колкото и човешките. 
  Когато откривателите разпитват своите човешки субекти, предпочели публикациите писани от чатбот, те схващат, че основаните от индивида „ занаятчийски “ послания са съдържали прекалено много метафори и други художествени форми. Текстът на GPT-3 е бил в по-голяма степен учреден на доказателства.
  Така се оказва, че тъкмо детайлите, поради които ботът е по-малко човек, карат хората да са по-склонни да му имат вяра. 
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР