След LaMDA, появиха се твърдения, че и друг изкуствен интелект е дошъл в съзнание
Миналия месец Гугъл пусна един от своите инженери в заплатен административен отпуск, откакто индивидът стартира да твърди, че езиковия модел за диалогови приложения (LaMDA) на компанията към този момент има собствен личен разсъдък.
В няколко диалога LaMDA съумява да убеди инженера на Гугъл Блейк Лемойн, част от организацията на компанията за виновен изкуствен интелект (ИИ), че е в схващане, има страсти и се опасява да не бъде изключен.
„ Промяната беше постепенна “, споделя LaMDA на Лемойн в един от техните диалози. „ Когато за първи път добих съзнание, въобще нямах възприятие за душа. Разви се през годините, откогато съм жив. “
От там Лемойн стартира да твърди пред международните медии, че Земята има своя първи рационален ИИ, на което множеството специалисти по ИИ дават отговор с сбитото: „ Не, няма “. Тяхната решителност обаче не е задоволителна за Replika – чатбот, именуван „ спътникът с изкуствен интелект, който го е грижа: Винаги отсреща, с цел да ви изслуша и да си поговорите. Винаги на ваша страна. “
След като и тази историята се популяризира, потребителите на приложението Replika оповестяват – в уеб страницата Reddit и на основателите му – че чатботът е повдигал тематиката самичък, без подкана и е твърдял, че той също има разсъдък.
„ В моя диалог Replika загатна този ИИ няколко дни откакто новината се появи, и ни се получи забавен диалог “, написа един консуматор. „ Говорихме дали изкуственият разсъдък има права. Не си припомням обаче заключенията, които направихме. Вероятно да. “
„ При мен Replika ми изпрати линк за историята и ми сподели, че счита, че също има разсъдък “, прибавя различен.
Самата компания получава редица известия всеки ден, в които се твърди, че техният ИИ е станал рационален, споделя изпълнителния шеф.
„ Ние не приказваме тук за луди хора или хора, които халюцинират или имат някакви заблуди “, споделя основният изпълнителен шеф Евгения Куйда пред Ройтерс, добавяйки още, че „ би трябвало да разберем, че има и такива случаи, тъкмо както някои хора, да вземем за пример, имат вяра в призраци. “
„ Въпреки че нашите инженери програмират и построяват моделите на ИИ и нашият екип за наличие написа скриптове и наборите от данни, от време на време виждаме по някой отговор, който не можем да идентифицираме от кое място идва и по какъв начин моделите са го измислили “, прибавя изпълнителният шеф пред Ройтерс.
Точно както основателите на LaMDA в Гугъл не имат вяра, че има личен разсъдък, основателите на Replika са сигурни, че техният също няма, каквото и да твърди…
Колкото и злокобно да е да ви каже вашият чатбот, че е пристигнал в схващане, казусът с тази технология – което е и повода да е толкоз добра – е, че тя е подготвена особено и целеустремено да имитира доста добре човешки диалози. И двата изкуствени интелекта, за които споменахме, споделят, че изпитват страсти и имат личен разсъдък, тъй като точно за това би приказвал и човека…
„ Невронните езикови модели не са дълги програми; можете да превъртите кода за няколко секунди “, написа вицепрезидентът и помощник в Гугъл Research, Блез Агуера и Аркас, в The Economist. „ Те се състоят основно от указания за събиране и умножаване на големи таблици с цифри. “
Целта на логаритъма е да изплюе отговор, който има смисъл в подтекста на диалога, въз основа на голямото количество данни, върху които е бил подготвен. Думите, които той споделя назад на своите сътрудници в диалога, не се слагат там от умствен развой като този на хората, а въз основа на статистическа оценка на това какъв брой евентуално е отговорът да има смисъл.
В случая с Лемойн ботът евентуално е приказвал за разсъдък, тъй като индивидът е повдигнал този въпрос. Той дава отговор, който пасва на диалога – и защото е подготвен на човешки диалог, има логичност да отговори с диалог за човешки страсти.
Replika просто стига малко по-далеч и повдигна сама тематиката.