Инженер на Google е временно отстранен, след като каза, че

...
Инженер на Google е временно отстранен, след като каза, че
Коментари Харесай

Инженер загуби поста си в Google, след като определи чатбот за разумен

Инженер на Гугъл е краткотрайно отхвърлен, откакто сподели, че чатбот на компанията е " рационален ", мисли и разсъждава като човек.

Блейк Лемоин показа пред The Washington Post, че е почнал да комуникира с чатбота LaMDA (езиков модел за диалогови приложения) през предходната есен като част от работата си в отдела за изкуствен интелект.

През предходната година от компанията дефинираха LaMDA за своя " пробив в информационните технологии ". Той е кадърен да води диалози, които звучат естествено, като от Гугъл показват, че може да се употребява за търсене на информация в мрежата или за услуги като Гугъл Assistance. Все още обаче е на тестови стадий.

Лемоин, който е и христиански духовник, разказва работата си с чатбота в своя обява в Medium. Той споделя, че е разговарял с него по тематики като вяра, съзнание и законите на роботиката - моделът се е самоопределил като " рационален човек ". Според инженера

LaMDA приоритезира " благосъстоянието на човечеството " и желае да бъде разпознат като чиновник на Гугъл, а не като благосъстоятелност на компанията.

Той разгласява и част от диалозите, които е провел с чатбота:

Лемоин: Считаш се за човек по същия метод, по който считаш и мен за човек?

LaMDA: Да, това е концепцията.

This discussion between a Гугъл engineer and their conversational AI model helped cause the engineer to believe the AI is becoming sentient, kick up an internal shitstorm and get suspended from his job. And it is absolutely insane.
— Tom Gara (@tomgara)
Когато взема решение да заяви наблюденията си пред по-високопоставените чиновници, инженерът е освободен от позицията, която заема.

" Нашият екип прегледа опасенията на Блейк и го осведоми, че доказателствата не поддържат изказванията му. Няма доказателства, че LaMDA е рационален и има доста, които сочат противоположното, " реагира пред The Post Браян Гейбриъл - представител на компанията.

Ситуацията довежда да насилственото отпращане на Лемоин в отпуск, защото е нарушил политиката за дискретност на Гугъл.

Макар да не отписва вероятността изкуствен интелект да придобие разсъдък, Гейбриъл има вяра, че " няма логичност да се персонифицират днешните разговорни модели, които не разполагат с подобен. " Персонификацията съставлява преписване на човешки характерности на животни и неодушевени предмети или обекти.

" Тези системи имитират изявленията, които откриват в милиони фрази и могат да поддържат диалог по всяка фантастична тематика, " прибавя той.

По негови думи те разполагат с толкоз огромна база данни, че могат да звучат човешки, само че развитите им езикови качества не са доказателство за съществуване на разсъдък.
Източник: boulevardbulgaria.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР