Бруталната истина да бъдеш човек е, че никога не можеш

...
Бруталната истина да бъдеш човек е, че никога не можеш
Коментари Харесай

Как да се доверяваме на изкуствения интелект, когато не знаем какво мисли?

Бруталната истина да бъдеш човек е, че в никакъв случай не можеш да узнаеш мислите на никой различен с изключение на себе си. Единственото схващане, до което имаме открит достъп, е нашето лично и всичко, което знаем за другите, в това число най-близките и най-скъпите ни, е това, което можем, спекулативно да заключим от техните думи и дейности или от това, което решат да разкрият посредством пояснение.

И по този начин, в свят, все по-населен от безчовечен сътрудници, като роботи и изкуствен интелект, непознаваемостта на мозъка се трансформира в нов вид тревога. Въпреки че можем да заключим, че мисловните процеси и мотивациите на другите би трябвало да се съгласуват значително с нашите лични с помощта на нашата споделена биология, няма такова умствено доближаване с машините.

Как можем да се доверим на изкуствения разсъдък (AI), в случай че не знаем какво мисли?

Тази тревога е била източник на ентусиазъм за редица писатели на научна фантастика през годините. Това е литература на смяната за обществата наситени с технологии и постоянно ни оказва помощ да изследваме продължаващия развой на взаимна промяна. Докато развиваме и усъвършенстваме технологията, тя стартира да предефинира нашия метод на живот и мислене, което от своя страна поражда нови софтуерни стремежи.

Както се аргументира американският книжовен критик Фредерик Джеймсън, функционалността на научната фантастика е „ да не ни дава„ облици “на бъдещето…, а по-скоро да трансформира и преструктурира нашия опит от сегашното. “

Още от първите дни на научната фантастика мотивациите и аргументите, които стоят зад действието на роботите, са източник на неустановеност. Айзък Азимов в доста от своите къси разкази изследва пояснения за държанието на машината, постоянно ненапълно песимистично. Важен фокус на сходни истории е концепцията, че самите роботи могат да дадат на хората пояснение за своето мислене и държание. Тези пояснения са жизненоважни за поощряване на доверието.

Пример за връзката сред машинните пояснения и човешкото доверие е даден от Робин Р Мърфи от Тексаския университет A&M в неотдавнашна публикация в списание Science Robotics. Тя показва история от 1972 година, наречена Long Shot от плодовития американски публицист на научна фантастика Вернор Винг.

В историята галактическият транспортен съд на пръв взор наподобява некоректен, като се отклонява от открития проект на полета, единствено с цел да изясни по-късно, че заради сензитивна към времето обстановка, корабът не съумява да се съветва първо с човешките надзорници. При този сюжет недоверието се разсейва от робота, който е в положение да изясни дейностите си.

Както постоянно се случва, връзката сред научната фантастика и науката е дълбока. Също по този начин в Science Robotics, екип от интернационалните откриватели на изкуствения разсъдък, управителен от Дейвид Ганинг от Агенцията за напреднали научни планове в региона на защитата на Съединени американски щати (DARPA), предлага явен доклад за това, което е известно в актуалните проучвания на AI, като „ разбираем изкуствен интелект “ или XAI.

Според създателите „ XAI система би трябвало да може да изясни своите благоприятни условия и разбирания; да изясни какво е направила, какво прави в този момент и какво ще се случи след това; както и да разкрие значимата информация, въз основа на която работи. “

Това е изключително значимо в този момент, защото огромна част от държанието на ИИ се основава на метода, по който машините се учат, а машинното образование постоянно е сложен и непрогледен развой. Целта на XAI, пишат създателите е, че в свят, цялостен с ИИ, „ обясненията са от значително значение потребителите да схванат, да се доверят и дейно да ръководят тези нови, изкуствено интелигентни сътрудници. “

Интересното е, че Ганинг и сътрудниците му показват като проблем това, че най-ефективните способи, посредством които машините учат, постоянно са минимум обясними, а най-обяснимите детайли на машинното взимане на решения постоянно са минимум точните.

Това води до огромно проучване по тематиката на XAI в неотдавнашния брой на Science Robotics, по който както Мърфи, по този начин и екипът на Ганинг дебатират.

Американски откриватели, водени от Марк Едмондс, Фън Гао и техни сътрудници от Калифорнийския университет в Лос Анджелис, регистрират заключенията от своето пробно изследване на метода, по който да се увеличи доверието на хората към роботите и изкуствения разсъдък.

XAI е в начален етап на развиване, защото множеството откриватели са по-фокусирани върху осъществяването на дилемите сложени на AI, в сравнение с върху приемането на пояснение за това осъществяване. Това е възпрепятствано и от другите равнища на обяснителност във връзка с другите тактики за машинно образование, от които има два съществени образеца: алегоричен разбор на задания, като дърво за решения, и машинно образование въз основа на дълбоки невронни мрежи.

Статия от Стефан Флайшфресер (Stephen Fleischfresser), оповестена в списание Cosmos.

Източник: megavselena.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР