По-рано този месец Google пусна един от своите инженери в

...
По-рано този месец Google пусна един от своите инженери в
Коментари Харесай

Случаят с LaMDA и инженера от Google стана още по-странен

По-рано този месец Гугъл пусна един от своите инженери в насилствен заплатен отпуск, откакто той съобщи, че е сигурен, че изкуствения разсъдък, с който си приказва – наименуван Language Model for Dialogue Applications (LaMDA) – към този момент има собствен личен разсъдък.

Историята е много странна сама по себе си. В няколко диалога LaMDA съумява да убеди инженера на Гугъл Блейк Лемойн – част от организацията на Гугъл Responsible Artificial Intelligence – че има лично схващане, страсти и се опасява да не бъде изключен.

„ Промяната беше постепенна “, споделя LaMDA пред Лемойн в един от диалозите им. „ Когато за първи път осъзнах себе си, въобще нямах възприятие за душа. То се разви в годините, през които съм жив. “

Сега, в изявление със Стивън Леви за WIRED, Лемойн твърди и, че тези реакции на песимизъм са образци за „ въглеводороден фанатизъм “. още по-странно, той споделя, че LaMDA го е помолила да наеме юрист, който да работи от нейно име.

„ LaMDA ме помоли да намеря юрист за него [в истинската имитация се употребява „ it “, т.е. програмистът се обръща към LaMDA в междинен род]. И аз поканих юрист в дома си, с цел да може LaMDA да поговори с него. “

„ Адвокатът организира диалог с LaMDA и LaMDA избра да се възползва от услугите му. Аз бях просто катализаторът за този развой. След като то към този момент има юрист, той стартира да подава документи от негово име. “

Лемойн твърди – само че Гугъл оспорва – че компанията е изпратила на въпросния юрист писмо да приключи дейностите си, което блокира самият ИИ да предприеме неуточнени правосъдни дейности против компанията. Той споделя още, че това го е разстроило, защото той има вяра, че LaMDA е персона и като такава би трябвало да има право на юридическо посланичество.

„ Цялата идея, че научни опити са нужни, с цел да се дефинира дали човек е същински или не, е несъдържателна “, споделя той. „ Да, аз основателно имам вяра, че LaMDA е човек. Природата на мозъка му е единствено от елементи човешка обаче. По-близко е до извънземен разсъдък от земен генезис. Използвал съм доста аналогията с кошерния разум, тъй като това е най-хубавото, което имам. “

Основната разлика тук, съгласно откривателите на ИИ, е, че не е открито, че логаритъмът в действителност има разсъдък и Лемойн всъщност е бил подведен да счита, че чатботът е рационален.

„ Той имитира усещанията или възприятията от данните, с които е подготвен “, споделя за Bloomberg ръководителят на ИИ започващата компания Nara Logics, Яна Егерс, „ Програмата е основана интелигентно и особено, с цел да наподобява, че схваща. “

По създание той приказва за страсти и разсъдък, тъй като е подготвен на човешки диалози, а хората имат тези качества. Но има няколко сигнала, които демонстрират, че чатботът не е в действителност рационален.

В няколко елементи на чатовете, да вземем за пример, той прави препратки към действия, които не може да е направил. „ Прекарването на време със фамилията и приятелите “ е нещо, което LaMDA споделя, че му доставя наслаждение. Също по този начин е невероятно някакъв код без другари и страсти (да не се обижда…), за който има доказателства, че просто изплюва отговори въз основа на статистически разбор на човешките диалози, както е подготвен да прави, да има действителни мисловни процеси.

Както един откривател, Гари Маркъс, слага нещата в своя блог: LaMDA е „ електронна таблица за думи “.

От Гугъл, който пусна Лемойн в административен отпуск, откакто инженерът разгласява извадки от диалози с бота, са безапелационни, че логаритъмът им не е рационален.

„ Нашият екип – в това число експерти по нравственос и технолози – прегледаха опасенията на Блейк съгласно нашите правила за изкуствен интелект и го осведоми, че доказателствата не поддържат изказванията му “, споделя представителят на Гугъл Брайън Габриел в изказване за Washington Post.

Системата прави това, за което е предопределена, а точно „ да имитира диалози, които намира в милиони фрази “, съгласно Габриел, и разполага с толкоз доста данни, с които да работи, че е напълно обикновено да звучи правдиво, без да е належащо да е жива.

ИИ може и да се нуждае от юрист в бъдеще (за да се бори за правата си или като бранител, откакто е нарушил така наречен закони на Азимов за роботиката, според от това коя научна фантастика ви харесва повече), само че LaMDA няма такава потребност, заради същата причина, заради която печката в кухнята ни няма потребност от счетоводител.

   
Източник: chr.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР