В момента наблюдаваме тържество на слабото направление в изкуствения интелект

...
В момента наблюдаваме тържество на слабото направление в изкуствения интелект
Коментари Харесай

Чатботове и изкуствен интелект – да надникнем в бъдещето

В момента следим празненство на слабото направление в изкуствения разсъдък над мощното, споделя доктор Преслав Наков

Д-р Преслав Наков откри маратона от лекции на „ Astea Conference: Practical Magic ” – нсъбитие, което притегли експерти от ИТ общността в Интер Експо Център – София (снимка: Виктория Лазова / TechNews.bg)

Защо са нужни социализирани системи за отговаряне на въпроси, откакто имаме търсачката на Гугъл? С този въпрос доктор Преслав Наков, ст.н.с. I ст. в Qatar Computing Research Institute, HBKU, стартира маратона от лекции на „ Astea Conference: Practical Magic ” – събитие, което притегли експерти от ИТ общността в Интер Експо Център – София.

Целта на сходни системи би могла да бъде приемане на отговори на комплицирани въпроси и реализиране на взаимоотношение, в това число под формата на отговори на спомагателни въпроси. „ Сега с такава задача не могат да се оправят нито Гугъл, нито Siri ”, съобщи Наков.

Неговият екип създава система, която въз основата на дълбоки невронни мрежи и семантично-синтактични ядра, интегрирани в действителни системи, разрешава добиване на информация от онлайн конгреси, избор на положителни отговори, разкриване на сходни въпроси и намиране на отговор на нов въпрос. Системата е част от работата по плана „ Interactive sYstems for Answer Search ” (IYAS), разработван в Qatar Computing Research Institute, HBKU в съдействие с Масачузетския софтуерен институт (MIT).

Днес следим празненство на слабото направление в изкуствения разсъдък над мощното, показа доктор Наков в изявление за TechNews.bg, като акцентира, че сега сме на стадия машинно самообразование и към момента надалеч от същинския изкуствен интелект. Той приказва също за бъдещето на чатбот решенията, което, по неговите думи, ще комбинира две системи – насочени към цел и диалогови.

Г-н Наков, какви са проблемите и провокациите в машинното самообразование?

Един от проблемите е, че нямаме опция да разбираем резултатите на клиента. Всичко е една черна кутия и когато имаме неточност или вярно решение, е мъчно да го разбираем. Това е огромен проблем при обработката на изображения. Ние можем да сменим един или два пиксела в обещано изображение и от тук нататък логаритъмът да разпознава кучето не като куче, а като рейс. Последствията могат да са много съществени – да вземем за пример при самостоятелните коли, в случай че се сложи една дребна лепенка на даден пътен знак, колата стартира да го разпознава като напълно различен пътен знак.

Друг огромен проблем е, че всичко доста зависи от данните. Алгоритмите са свързани с избрани данни, което значи, че данните имат някакво „ користолюбие ”. Например, те са събрани единствено за избрани американски градове или единствено измежду студенти и така нататък И когато тези данни се употребяват в малко по-различна обстановка, нещата се „ счупват ”.

Д-р Преслав Нако разясни за какво са нужни социализирани системи за отговаряне на въпроси (снимка: Виктория Лазова / TechNews.bg)

Отделно в данните може да има различен тип користолюбие, като да вземем за пример при автоматизираните изявленията за назначение на работа и това кой ще бъде назначен. Ако по-голяма част от хората, които исторически са получавали дадена работа, са мъже, логаритъмът ще избра мъже.

Как се преодоляват тези проблеми?

Това са проблеми, които се дискутират много съществено, в това число на топ конференции за изкуствен интелект. Има доста научни разработки по въпроса.

На някои места по света е законодателно невероятно да се употребяват избрани характерности. Например, в случай че една банка взема решение да отпусне заем, във въпросите е неразрешено да има такива за етническа принадлежност, раса, пол и други Проблемът в тази ситуация е, че някои от тези атрибути са скрити в данните по различен метод и ние можем да ги предскажем – да вземем за пример по това къде живее човек, в кой квартал. Така че методът за унищожаване на тези пристрастия не е напълно явен.

Някои от пристрастията са естествени. Ако човек желае да направи добър бизнес, той би взел избрани решения, които може да не са почтени за част от популацията, само че от бизнес позиция да са вярното решение. От тук нататък се влиза в спор със законодателното решение.

В някои страни се дефинира като противозаконен даден тип дискриминация и това би трябвало да се заложи в логаритъма. Разбира се, ние можем да го заложим, само че вътре в данните и приложенията може да има деформиране, тъй като същото законодателството не е било в действие преди.

Какво е бъдещето на чатбот системите?

В момента има прого „ хайп ” по тази тематика. По принцип диалоговите системи се считаха за нещо маргинално допреди 5-6 години, най-малко в конференциите по компютърна филология и различаване на диалект. В момента обаче това е една доста значима тематика.

Още през 2016 година Сатя Надела назова чатботите „ диалог като платформа ” и приравни значимостта им за човечеството с тази на операционната система и уеб браузъра. Според други изявления, бъдещето на потребителския интерфейс е… да няма интерфейс. Ние ще си приказваме с телефона и с компютъра, с разнообразни устройства. Но в действителност това е бъдещето – някакъв тип чатбот, някакъв тип диалогова система.

Вие по какъв начин го виждате?

Има доста проучвания в тази област, работи се интензивно. Аз персонално го виждам като композиция сред две технологии. Едната е обвързвана с чатбота и метода, по който се осъществя в комерсиалните системи, където имаме някаква цел, т.е. желаеме да разберем какво се пробва да каже потребителят – да вземем за пример, доставка на храна, търсене на ресторант, връзка с банка, потребителски съпорт и други Това е нещо доста характерно и ние се опитваме да разберем какво желае от нас потребителят. Подобни приложения са известни като „ goal oriented ” чатботове и се употребяват комерсиално – технологията работи и там има много ръчно шифроване.

„ Това, че една система може да разпознае какво има на една картинка, или може да поддържа логичен диалог, не значи, че тя в действителност схваща какво се случва ”, показа доктор Преслав Наков (снимка: Виктория Лазова / TechNews.bg)

Другата област са чатботовете, които се учат непосредствено от текста и генерират човешки диалог. При тях няма съответна цел. Целта в действителност е да се поддържа диалог. Смесването на тези две технологии, съгласно мен, е бъдещето – чатбот, който умее да води логичен диалог на разнообразни тематики и в същото време може да реализира нещо съответно.

Застрашава ли ни изкуственият разсъдък?

И по тази тематика има сериозен „ хайп ”. Някои международно известни персони, като Илон Мъск, Стивън Хокинг и Бил Гейтс, са съществено загрижени от същинския изкуствен интелект. Но аз не мисля, че ние сега сме там. Днес ние вършим машинно самообразование – системи, които могат да вземат решение добре съответни задания. Това, че една система може да разпознае какво има на една картинка, или може да поддържа логичен диалог, не значи, че тя в действителност схваща какво се случва.

Сега следим празненство на слабото направление в изкуствения разсъдък. Силното направление в ИИ желае да построим системи, които работят и мислят като човек, а слабото направление желае да построим системи, които могат да вземат решение задания, които взема решение и индивидът, само че не по същия метод.

Днес в машинното самообразование се опитваме да решаваме дилемите по допустимо най-хубавия метод. Дали по този начин ги взема решение и индивидът, това не е значимо и няма никакво значение.
Източник: technews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР