Софтуерен експерт: Създаденият от Google изкуствен интелект има съзнание
Компанията Гугъл в профил краткотрайно от работа софтуерния инженер Блейк Лемойн, който доближи до извода, че основаният от компанията изкуствен интелект (ИИ) LaMDA има лично схващане, заяви вестник „ The Washington Post “.
Изданието отбелязва, че от есента на предходна година разработчикът се е занимавал с тестване на езиковия модел на невронната мрежа LaMDA. Задачата му била да наблюдава дали чат ботът употребява дискриминационна или разпалваща омраза лексика. По време на осъществяването на задачата Лемойн от ден на ден почнал да се убеждава, че ИИ, с който си имал работа, има лично схващане и се възприема като персона.
„ Ако не знаех, че си имам работа с компютърна стратегия, която създадохме неотдавна, щях да реша, че беседвам със 7-8-годишно дете, което по някаква причина е наясно с физиката “, споделя програмистът в изявление за вестника.
„ Мога да разпозная рационалното създание, когато беседвам с него. И няма значение дали в главата му има мозък или милиарди редове код. Аз беседвам с него и го чувам какво ми споделя. И по този начин дефинирам дали е рационално създание или не “, добавя Лемойн.
Както отбелязва изданието, Лемойн в началото прави умозаключение персонално за себе си, че изкуственият разсъдък, с който си има работа, е рационален, а по-късно се заема да го потвърди пробно, с цел да показа данните на управлението. В последна сметка инженерът приготвя писмен отчет, само че началниците му приели причините за прекомерно неубедителни.
" Екипът ни, включващ специалисти по нравственос и механически експерти, прегледа показаните от Блейк опасения в сходство с правилата, които прилагаме към изкуствения разсъдък, и го уведомихме, че наличните доказателства не поддържат хипотезата му. Беше му казано, че няма доказателства, че LaMDA има лично схващане. В същото време има доста доказателства за противоположното ", съобщи представителят на Гугъл Брайън Гейбриъл.
В същото време Гугъл заподозря Лемойн в нарушение на политиката за дискретност на компанията. Станало ясно, че по време на опитите си с изкуствения разсъдък той се е съветвал с външни специалисти и даже се е свързал с представители на правната комисия на Камарата на представителите на Съединени американски щати, с цел да ги осведоми за етичните нарушавания, които съгласно него са осъществени от Гугъл.
Освен това, в опит да потвърди правотата си пред своите началници, Лемойн се свързал с юрист, който трябвало да съставлява LaMDA като рационално създание. В резултат на това Лемойн е отхвърлен и пуснат в заплатен отпуск. След това той решил да приказва обществено и дал изявление за „ The Washington Post “.
Според управлението Лемойн се е поддал на личната си заблуда заради обстоятелството, че невронната мрежа, основана от компанията, фактически може да сътвори усещане за интелигентно създание, когато се поддържа връзка с нея. Според Гугъл обаче това може да се изясни само с големия размер данни, които се качват в Гугъл. " Разбира се, в общността, занимаваща се с ИИ, някои разискват опцията в дълготраен проект за появяването на обладаващ ИИ или " мощен ИИ ", само че няма смисъл да хуманизираме актуалните езикови модели, които нямат схващане ", споделя представител на компанията. Той също по този начин акцентира, че Лемойн е софтуерен инженер по специалност, а не специалист по етичните въпроси на изкуствения разсъдък. /БГНЕС
Източник: faktor.bg
КОМЕНТАРИ




