Какво ще стане когато машините се научат да разпознават човешките

...
Какво ще стане когато машините се научат да разпознават човешките
Коментари Харесай

Може ли AI да проявява емпатия по-добре от хората? Компаниите вече тестват

Какво ще стане когато машините се научат да разпознават човешките страсти и да ги имитират? Може би не е надалеч времето, когато ще ни се наложи да си отговорим на този въпрос.    Експерти към този момент образоват изкуствения разсъдък по какъв начин да демонстрира страсти, написа The Wall Street Journal. Става дума за мощни модели, движени от AI, които упражняват с големи количества глас, текст и видео диалози и към този момент са задоволително умни, с цел да долавят промени в настроението на човек, да го поясняват и правят оценка.    Големи компании като американския ефирен снабдител Cox Communications употребяват изкуствен интелект, с цел да наблюдават работата на чиновниците в колцентъра си и по-късно да правят оценка успеваемостта им.    AI навлиза и в медицинския бранш. Lyssn.io да вземем за пример тества инструмент, който може да прави оценка психичното положение на пациент с успеваемостта на умел експерт. Идеята е в един миг машината да може и да дава отговор, т.е. да организира лечебна сесия. Не е надалеч времето, в което клиентът ще се обажда на банка, интернет снабдител или пощальон и няма да е кадърен да разграничи дали приказва с човек или машина.      Тези промени безспорно ще са от изгода за бизнеса. Вместо да наемат хора, колцентровете ще могат да употребяват умни ботове. Терапевтичните машини пък могат да оказват помощ при дефицита на експерти и да са потребни за хора с проблеми.    „ Изкуственият разсъдък може да бъде обучаван със знанията на най-хубавите психилози “, споделя Грин Лорд, изпълнителен шеф на mpathic.ai, компания, която работи в областта на основаване на епматия у AI.   Важният въпрос тук обаче е етичен. Може ли машина да дава отговор за лекуване на прочувствени положения? Може ли изкуствената емпатия да заместни същинската. И какво ще се случи с човешкото състрадание, в случай че се откри машина, която да го демонстрира вместо хората.      Спорно е дали изкуственият разсъдък може да замести напълно човешкото другарство. Но и в този момент е несъмнено, че той може да демонстрира така наречен когнитивна емпатия, т.е. да разпознава и да реагира на държание, за което е бил подготвен, споделя експертът по биоетика от Калифорнийския университет Джоди Колпърн. Но това е доста друго от прочувствената емпатия. Иначе казано една компютърна стратегия не може да изпитва същинско съчувствие, нито пък да е откровено загрижена.    „ Емпатията е същинска скъпа, в случай че лекарят може да почувства нещо, когато слуша пациент “, споделя Колпърн.      Подобно възприятие може да има единствено у човешко създание, само че тази липса не пречи на развиването на AI във въпросната посока.    Според поддръжниците на тази концепция изкуственият разсъдък би бил доста потребен за избран вид лечения. Например поведенческа терапия за отвод от тютюнопушене, приложимост на опиати, хранителни разстройства, тревога и меланхолия.    Вече са извършени опити, които изследват равнището на епматия при работа с пациенти от действителни терапевти и от AI. Твърди се, че след намесата на изкуствения разсъдък отговорите стават по-добре ориентирани и по-ефективни за пациента, въпреки и да не е напълно ясно по какъв начин тъкмо се прави оценка равнище на състрадание.    Ето за какво един от създателите на изследването – Тим Атолф – експерт по компютърни науки във университета във Вашингтон декларира, че изкуственият разсъдък и индивидът може да работят по-ефективно дружно.      Всичко това обаче към момента е в областта на вероятностите и догатките. Дори да се стигне до безапелационен извод, че AI оказва помощ при психична терапия, внедряването му не би било толкоз елементарно. Все отново приказваме за здравна активност, т.е. такава, която е строго контролирана. За да се случат такива промени, ще е са нужни законови ремонти. А те ще бъдат предшестввани от съответните диспути до каква степен би била етична такава стъпка.    Освен това кой човек би желал душевните му проблеми да се вземат решение от нещо без душа?    Подобни опити към този момент са правени – да предложиш онлайн лечебна услуга, само че без да разкриеш, че препоръките се дават от AI. Това единствено провокира гнева на потребителите.    А кой би подсигурил, че здравните препоръки, дадени от изкуствени разсъдък, са потребни и би трябвало да се следват?      AI евентуално би бил потребен при работата с човешки запаси, като би могъл да прави оценка равнището на аннгажираност по време на изявление за работа.   Технологичната компания Humanly да вземем за пример предлага AI основан артикул, който дава оценки на участниците в такива диалози, води бележки за държанието им и проучва държанието на страните.   Компанията открива, че нейните специалисти по наемане на хора са по-малко ангажирани в разговора, когато интервюират дами. След като казусът е посочен, броят на наетите дами се усилва с 8%.      Здравен фонд от Флорида пък споделя, че наема инспектори, които наблюдават работата на чиновниците в колцентъра. Една от задачите е да се ревизира дали непосредствено контактуващите с клиентите демонстрират задоволително съпричастност с проблемите им. Но тези инспектори са малцина и съумяват да преслушат най-малък брой диалози. Затова в процеса се включва AI, обучаван да следи за изговарянето на избрани изречения, демонстриращи угриженост за клиента.    От компанията признават, че за момента на оценката на AI  може да се разчита на 70%. Смята се, че съответно (100%) могат да проучват единствено хората. За сметка на това изкуственият разсъдък е доста по-продуктивен. Ако хората могат да прегледат 100-200 диалога дневно, AI може да се оправи с 10 000.    Трябва да осъзнаем обаче, че AI има своите ограничавания, показва Шери Търкъл, предподавател по обществени науки в MIT.    „ Какво ще се случи, в случай че машините не са положителни в измерването на усеща като болежка или обич? “, пита тя и показва една сериозна заплаха: в случай че човек се довери на неверна преценка на технологията за несъмнено положение, тази неточност може да се трансформира в стандарт. 
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР