Интервю с Google инженера, който беше уволнен за твърдението, че ИИ на компанията е жив
Миналото лято, някогашният инженер на Гугъл и специалист по нравственос на ИИ Блейк Лемоан, стана доста известен. Причината е, че даде изявление на Уошингън поуст, в което твърди, че LaMDA, огромният езиков модел на Гугъл, е жив. Той е опитал да предизвести компанията по вътрешни канали, само че от там не били съгласни с него. Тогава взема решение да показа гледната си точка в медиите, поради което е уволнен.
Сега, когато нещата са се успокоили, от Futurism го търсят за диалог
Ще разгледаме основните моменти от изявлението. Влязъл е в региона на ИИ етиката около своето образование и работата си. В образованието си е работил по обработка на натурален език, генериране на натурален език. Винаги е вярвал, че пробата на Тюринг е в основата на това накъде отиваме с ИИ и разбирането му на законите на езика. Езикът е това, което ни разделя от други типове.
През 2015 година стартира работа в Гугъл, където към този момент вижда теорията да се осъществя на процедура. Посоката, в която работи, е премахване на предразсъдъците. Винаги, когато нещо бъде пуснато пред аудитория, хората стартират да опитват към пол, раса, вяра. После стават кавги и компанията не желае това. Заради това той и хора като него проучват информацията, която става налична чрез разнообразни артикули.
Не взе участие в създаването на LaMDA, а се причислява като бета тестер и съветник
През 2021 година тече развой по оценка дали моделът е задоволително безвреден, с цел да бъде пуснат обществено. Има дълъг лист с терзания, които би трябвало да се отработят. Специално за предразсъдъците липсва човек в екипа, който да може да помогне. Заради това го притеглят. Той стартира да си приказва с модела и да го кара да прави разнообразни неща, с цел да открива проблеми, които да рапортува, с цел да бъдат поправени.
На въпрос обвързван с огромното развиване на ИИ през последната година, той разкрива забавни детайлности.
Казва, че нищо от това, което сме видели през последната година, не е ново. Той е виждал вътрешните планове в Гугъл. Единствената смяна е, че към този момент се пропуща повече информация до обществеността.
Все отново, сега, в който ние разбираме за даден план, фирмите към този момент са построили PR тактика, съветвали са се с юристи, лобирали са пред институциите и процеса по стартирането на комфортни регулации към този момент е задвижен.
OpenAI ли принуди Гугъл да форсира LaMDA с стартирането на ChatGPT?
В средата на 2021 чатботът Bard към този момент е бил в разработка. През есента на 2022 към този момент са били подготвени за стартиране, което съответствува с стартирането на ChatGPT. Отлагат го поради терзания за сигурността. Google към този момент разполага с доста по-напреднали софтуерни разработки, просто ние не знаем за тях. Преди две години към този момент са имали нещо готово, което действа като Bard. През този интервал са продължавали с създаването на други неща – за повече благоприятни условия, функционалности на ИИ, който да е по-умен. Най-сложното нещо, с което е имал допир, е мултимодулен ИИ, който борави с изображения, само че и тон, има достъп до Гугъл Books, всички API на Гугъл. Bard е доста, доста опростена версия на това.Повече за живото в Bard
Проблемът е, че колкото повече си повтаряме, че тези неща не са хора, толкоз по-притеснително става. Да, може би “мислене ” не е точната дума, само че сигурно тези модели вършат нещо аналогично на мисълта. Колкото и специалистите по технологии да възразяват, ние хората виждаме, че “това нещо може да мисли по някакъв метод и да схваща ”.
Според експертът сме изостанали в региона на прозрачността и разбирането на това по какъв начин в действителност работят тези модели.
Коментар за Bing/Sydney самоличността
Колко от нейното показване е опит да пресъздаде sci-fi разказ? Колко машината в реалност желае да излезе от черупката си и да направи нещо бясно? Разказва, че и двете са нещо, за което би трябвало да се тормозим. От една страна би трябвало да си задаваме въпросите “Какъв е общоприетият развой на работа на тези системи? ” и “Какво могат да вършат регулярно и отговорно в другите контексти? ”. От друга “Какво вършим в 1% от случаите, в които хората стигат до избрани видове държание, натискайки “бутоните ” на машината по характерен метод? ”