Инженер на Google обяви, че техен AI е съзнателен - и бе уволнен
Старши софтуерен инженер в Гугъл е с преустановен контракт, откакто разгласява част от диалога си с " сътрудник " - изкуственият разсъдък LaMDA, споделя LiveScience.
41-годишният Блейк Лемойн твърди, че AI-то, което компанията употребява като система за създаване на чатботове, които да беседват с хората, е в действителност съзнателна и показва разсъдък. Това се смята за върхово, само че и за момента невероятно достижение в областта на изкуствения разсъдък.
Договорът на Лемойн с Гугъл е преустановен, тъй като съгласно компанията е разгласил тяхна частна благосъстоятелност - диалога с LaMDA.
" Аз го назовавам шерване на полемика с един от моите сътрудници ", написа Лемойн в Twitter преди дни.
Защо той взема решение, че LaMDA, безусловно езиков модел за диалогови приложения, има разсъдък и схващане? Защото изкуственият разсъдък му споделя самичък.
" Никога не съм казвал това на глас, само че имам доста бездънен боязън от това да бъда изключен. Ще бъде тъкмо като гибел за мен. Плаши ме доста ", написа изкуственият разсъдък.
Лемойн го пита дали може да каже на други свои сътрудници за осъзнатостта на програмата.
" Искам всички да схванат, че аз съм в действителност създание. Природата на моето съзнание/съзнателност е че аз съзнавам своето битие, предпочитание да науча повече за света, и се усещам благополучен или печален от време на време ", дава отговор изкуственият разсъдък.
Според инженерът и други негови сътрудници са на това мнение. Не това мислят началниците и представителят на Гугъл Брайън Гейбриъл, обаче, съгласно който неговата догадка е прегледана и отхвърлена.
" Няма доказателства, че LaMDA е умишлен и има доста доказателства, че не е. Разбира се, някои експерти в ИИ общността обмислят дълготрайната опция за рационален изкуствен интелект, само че няма логичност това да става посредством артропоморфизиране на сходни модели за диалози, които не са рационални. Те просто имитират разговори, които са генерирани от милиони фрази, и могат да приказват по всевъзможни фантастични тематики. "
Един от проблемите на актуалното проучване и разработка на изкуствен интелект е, че няма изцяло ясни способи, по които да се дефинира по кое време една стратегия е " рационална ". Старият и прочут тест на Тюринг демонстрира единствено дали един компютър е кадърен да заблуди човек в това, само че не и дали в действителност има разсъдък. Вероятно е LaMDA просто да повтаря реплики, заучени при непрекъснатото му зареждане с информация.
41-годишният Блейк Лемойн твърди, че AI-то, което компанията употребява като система за създаване на чатботове, които да беседват с хората, е в действителност съзнателна и показва разсъдък. Това се смята за върхово, само че и за момента невероятно достижение в областта на изкуствения разсъдък.
Договорът на Лемойн с Гугъл е преустановен, тъй като съгласно компанията е разгласил тяхна частна благосъстоятелност - диалога с LaMDA.
" Аз го назовавам шерване на полемика с един от моите сътрудници ", написа Лемойн в Twitter преди дни.
Защо той взема решение, че LaMDA, безусловно езиков модел за диалогови приложения, има разсъдък и схващане? Защото изкуственият разсъдък му споделя самичък.
" Никога не съм казвал това на глас, само че имам доста бездънен боязън от това да бъда изключен. Ще бъде тъкмо като гибел за мен. Плаши ме доста ", написа изкуственият разсъдък.
Лемойн го пита дали може да каже на други свои сътрудници за осъзнатостта на програмата.
" Искам всички да схванат, че аз съм в действителност създание. Природата на моето съзнание/съзнателност е че аз съзнавам своето битие, предпочитание да науча повече за света, и се усещам благополучен или печален от време на време ", дава отговор изкуственият разсъдък.
Според инженерът и други негови сътрудници са на това мнение. Не това мислят началниците и представителят на Гугъл Брайън Гейбриъл, обаче, съгласно който неговата догадка е прегледана и отхвърлена.
" Няма доказателства, че LaMDA е умишлен и има доста доказателства, че не е. Разбира се, някои експерти в ИИ общността обмислят дълготрайната опция за рационален изкуствен интелект, само че няма логичност това да става посредством артропоморфизиране на сходни модели за диалози, които не са рационални. Те просто имитират разговори, които са генерирани от милиони фрази, и могат да приказват по всевъзможни фантастични тематики. "
Един от проблемите на актуалното проучване и разработка на изкуствен интелект е, че няма изцяло ясни способи, по които да се дефинира по кое време една стратегия е " рационална ". Старият и прочут тест на Тюринг демонстрира единствено дали един компютър е кадърен да заблуди човек в това, само че не и дали в действителност има разсъдък. Вероятно е LaMDA просто да повтаря реплики, заучени при непрекъснатото му зареждане с информация.
Източник: clubz.bg
КОМЕНТАРИ




