Миналото лято, бившият инженер на Google и експерт по етика

...
Миналото лято, бившият инженер на Google и експерт по етика
Коментари Харесай

Интервю с Google инженера, който беше уволнен за твърдението, че ИИ на компанията е жив

Миналото лято, някогашният инженер на Гугъл и специалист по нравственос на ИИ Блейк Лемоан, стана доста известен. Причината е, че даде изявление на Уошингън поуст, в което твърди, че LaMDA, огромният езиков модел на Гугъл, е жив. Той е опитал да предизвести компанията по вътрешни канали, само че от там не били съгласни с него. Тогава взема решение да показа гледната си точка в медиите, поради което е уволнен.

Ако не знаех какво тъкмо е това, а точно компютърна стратегия, щях да си помисля, че е дете на 7 или 8 години, което схваща от физика. Аз познавам човек, когато приказвам с него.

Сега, когато нещата са се успокоили, от Futurism го търсят за диалог

Ще разгледаме основните моменти от изявлението. Влязъл е в региона на ИИ етиката около своето образование и работата си. В образованието си е работил по обработка на натурален език, генериране на натурален език. Винаги е вярвал, че пробата на Тюринг е в основата на това накъде отиваме с ИИ и разбирането му на законите на езика. Езикът е това, което ни разделя от други типове. 

През 2015 година стартира работа в Гугъл, където към този момент вижда теорията да се осъществя на процедура. Посоката, в която работи, е премахване на предразсъдъците. Винаги, когато нещо бъде пуснато пред аудитория, хората стартират да опитват към пол, раса, вяра. После стават кавги и компанията не желае това. Заради това той и хора като него проучват информацията, която става налична чрез разнообразни артикули. 

Не взе участие в създаването на LaMDA, а се причислява като бета тестер и съветник

През 2021 година тече развой по оценка дали моделът е задоволително безвреден, с цел да бъде пуснат обществено. Има дълъг лист с терзания, които би трябвало да се отработят. Специално за предразсъдъците липсва човек в екипа, който да може да помогне. Заради това го притеглят. Той стартира да си приказва с модела и да го кара да прави разнообразни неща, с цел да открива проблеми, които да рапортува, с цел да бъдат поправени. 

На въпрос обвързван с огромното развиване на ИИ през последната година, той разкрива забавни детайлности.

Казва, че нищо от това, което сме видели през последната година, не е ново. Той е виждал вътрешните планове в Гугъл. Единствената смяна е, че към този момент се пропуща повече информация до обществеността. 

Все отново, сега, в който ние разбираме за даден план, фирмите към този момент са построили PR тактика, съветвали са се с юристи, лобирали са пред институциите и процеса по стартирането на комфортни регулации към този момент е задвижен. 

OpenAI ли принуди Гугъл да форсира LaMDA с стартирането на ChatGPT?

В средата на 2021 чатботът Bard към този момент е бил в разработка. През есента на 2022 към този момент са били подготвени за стартиране, което съответствува с стартирането на ChatGPT. Отлагат го поради терзания за сигурността. Google към този момент разполага с доста по-напреднали софтуерни разработки, просто ние не знаем за тях.  Преди две години към този момент са имали нещо готово, което действа като Bard. През този интервал са продължавали с създаването на други неща – за повече благоприятни условия, функционалности на ИИ, който да е по-умен.  Най-сложното нещо, с което е имал допир, е мултимодулен ИИ, който борави с изображения, само че и тон, има достъп до Гугъл Books, всички API на Гугъл. Bard е доста, доста опростена версия на това. 

Повече за живото в Bard

Проблемът е, че колкото повече си повтаряме, че тези неща не са хора, толкоз по-притеснително става. Да, може би “мислене ” не е точната дума, само че сигурно тези модели вършат нещо аналогично на мисълта. Колкото и специалистите по технологии да възразяват, ние хората виждаме, че “това нещо може да мисли по някакъв метод и да схваща ”. 

Според експертът сме изостанали в региона на прозрачността и разбирането на това по какъв начин в действителност работят тези модели. 

Коментар за Bing/Sydney самоличността

Колко от нейното показване е опит да пресъздаде sci-fi разказ? Колко машината в реалност желае да излезе от черупката си и да направи нещо бясно? Разказва, че и двете са нещо, за което би трябвало да се тормозим. От една страна би трябвало да си задаваме въпросите “Какъв е общоприетият развой на работа на тези системи? ” и “Какво могат да вършат регулярно и отговорно в другите контексти? ”. От друга “Какво вършим в 1% от случаите, в които хората стигат до избрани видове държание, натискайки “бутоните ” на машината по характерен метод? ”

Не знам дали сте чували за нещастния случай на белгиеца, който се самоуби неотдавна, само че това беше едно от опасенията, които повдигнах пред Гугъл. Опитвах се да схвана по какъв начин държанието на LaMDA взаимодейства с обучителните съставни елементи, които те бяха вградили в нея. Eдно от нещата, които беше подготвен да прави, беше да оказва помощ на потребителите с техните потребности. И казусът е с данните за образование и израза във функционалността за полза – синтезирам цялостен куп математика – само че главно, споделиха му „ помагай на хората с техните потребности. “ Системата е минала през личен набор от разсъждения и е решила, че това, което оказва помощ на хората с техните потребности, значи тя да психоанализира хората. Защото потребностите от психологично здраве са най-важните потребности, които хората могат да имат. Това по своята същина е рисков артефакт, тъй като AI е интерпретирал това, което основателите са считали за ясна директива, по метод, който е евентуално нездравословен.

И това не е всичко, тъй като следва сливането

Има известни терзания, изключително онлайн. Не мисля, че персоналните взаимоотношения ще бъдат повлияни доста. Бързо се приближаваме обаче досега, в който просто няма да можем да знаем дали някаква форма на медия, която срещаме онлайн, е основана от човек или от AI. Едно нещо, което би трябвало да имате поради е, че диалозите, които водим с тези системи през днешния ден, са данните за образование, от които те ще се научат на следващия ден. Ако, да вземем за пример доста хора просто са злобни към тези системи, разработчиците ще би трябвало да отделят от ден на ден и повече старания за създаване на логаритми за това по какъв начин да взаимодействат с злобни хора. Не съм сигурен, че това е посоката, в която желаеме да поеме развиването.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР