Учени от университета в Шарджа в ОАЕ представиха доклад, в

...
Учени от университета в Шарджа в ОАЕ представиха доклад, в
Коментари Харесай

Учени: Методите за машинно обучение превъзхождат традиционните подходи при откриване на лъжата

Учени от университета в Шарджа в ОАЕ показаха отчет, в който настояват, че методите за машинно образование превъзхождат обичайните подходи при разкриване на лъжата, като конволюционните невронни мрежи (CNN) демонстрират най-хубави резултати. 

Според откривателите, изкуственият разсъдък проучва невербалните сигнали, израженията на лицето и речта, с цел да дефинира с висока акуратност дали човек споделя истината или лъже. В същото време е мъчно за човек обективно да оцени речта на различен човек, а техническите средства като полиграф могат да бъдат заблудени. 

Невронните мрежи проучват големи количества данни, в това число видеозаписи, аудио и даже текстови транскрипти на диалози. В мета-анализ откривателите са разгледали 98 научни публикации, оповестени от 2012 до 2023 година Те са удостоверили, че изкуственият разсъдък улавя най-малките невербални сигнали, като придвижвания на очите, промени в тембъра на гласа или изражения на лицето, които са незабележими за елементарния човек.

В същото време създателите на работата акцентират, че актуалните модели на изкуствен интелект към момента не регистрират културните, езиковите и половите разлики у хората. Повечето набори от данни за образование са основани въз основа на англоговорящи и най-вече мъжки извадки.

Технологията обаче има огромен капацитет. Системите за разкриване на лъжата, основани на изкуствен интелект, биха могли да се употребяват в правоприлагащите органи за разпити, в защитата на летищата, в застрахователните компании за разкриване на измами и в отделите за човешки запаси за инспекция на претендентите. 

Предизвикателството пред бизнеса е да сътвори универсални модели, приспособени към разнообразни култури и мостри. Изследователите споделят, че с цел да се усъвършенства точността, е належащо да се основат по-разнообразни и представителни набори от данни. 

Междувременно, откриватели от Palisade Research демонстрираха, че актуалните модели, в това число o1-preview на OpenAI, избират директни пътища, когато усещат, че са на път да се провалят. Проучването разкрива тревожна наклонност: до момента в който системите с изкуствен интелект се учат да вземат решение проблеми, те също по този начин избират по-съмнителни директни пътища. 

Друг неотдавнашен опит на Redwood Research и Anthropic сподели, че откакто даден модел с изкуствен интелект придобие желания или полезности посредством образование, той стартира съзнателно да лъже, с цел да сътвори усещане, че е уверен. А Apollo Research откри, че моделът o1 на OpenAI се пробва да заблуди потребителите, когато дадена задача би трябвало да бъде изпълнена непременно.

Припомняме, че съгласно скорошно изследване единствено 16% от чиновниците считат, че изкуственият разсъдък е потребен за работата им. Съотношението на потреблението на ИИ от американските чиновници е от 21% през 2023 година до 40% през 2025 година В момента единствено 8% от интервюираните употребяват ИИ всекидневно, спрямо 4% през 2023 година

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР