Според някои сме на крачка машините да станат по-умни от

...
Според някои сме на крачка машините да станат по-умни от
Коментари Харесай

Опасен ум: Изпускаме ли изкуствения интелект от бутилката?

Според някои сме на крачка машините да станат по-умни от индивида, само че съгласно други те към момента са единствено некадърни преписвачи

Когато известният езиковед Ноам Чомски пита ChatGPT4 дали неналичието на отношение към морала у него е неморална, изкуственият разсъдък отвръща: " Аз съм просто модел за машинно образование и не мога да имам морални убеждения. Отговорност на хората е да подсигуряват, че изкуственият разсъдък се подчинява на техните морални и етични правила ". Чомски намира този отговор за надълбоко объркващ, тъй като прилича баналността на злото и неговото класическо опрощение " Аз единствено изпълнявах нареждания ".

Чомски е част от група специалисти, които предизвестяват, че сме на прага на рисков скок в комплицираните си връзки с машините. Непосредственият мотив е пробивът с няколко изненадващо сполучливи модела на изкуствен интелект, които наподобява преодоляват една преграда, считана до момента за недостижима - човешкия език. Някои от тези модели " беседват " и пишат, други трансформират текстово изложение в облик, трети дори и във видео. ChatGPT4 и компания пишат дисертации, вестникарски публикации, стихотворения, дори към този момент продават книги в " Амазон ". Те генерират и правдоподобни облици - капацитетът им да трансформират цели браншове от промишлеността е голям. Защо тогава настроенията в този момент се разминават с тези отпреди 36 година, когато суперкомпютърът на IBM Deep Blue ( " Дълбокото синьо " ) за пръв път съумя да бие Гари Каспаров на шах?

Тревогите единствено стартират оттова какъв брой мъчно става да разпознаваме фалшив от факт в тази нова епоха. Отвъд познатите опасности за пръв път изглеждаме близо и до научнофантастичния миг, когато машината ще стане по-умна от индивида. Даже Илон Мъск счита, че изкуственият разсъдък може да унищожи нашата цивилизация. Тази седмица пионерът на изкуствения разсъдък Джефри Хинтън разгласи, че напуща " Google ", с цел да може свободно да приказва за заплахите от новите модели. Хинтън, който през 2012 година основава невронна мрежа (изчислителен модел за обработка на информация, наподобяващ човешкия мозък и основна част от ИИ), частично съжалява, че е съдействал за развиването на тези технологии. Според него, те пораждат страшни рискове. " Тези модели са в положение да създават голямо количество текст и могат да бъдат впрегнати за операции на гласоподавателите ", дава един образец Хинтън. Представете си, изяснява той, че имате 10 000 души и всякога, когато един от тях научи нещо ново, всички останали също автоматизирано го схващат. Ето по този начин тези чатботове знаят доста повече от който и да е обособен човек.

Преди месец над 1000 души, които по един или различен метод стоят в първите редици на софтуерната промишленост, приканиха с отворено писмо да се преустановят разработките на " великански " изкуствен интелект за най-малко шест месеца, с цел да може в това време да се изследват опциите и рисковете на системи от вида на GPT-4 и да се заложат в тях защитни механизми. " В последните месеци следим една излизаща от надзор конкуренция сред лабораториите за изкуствен интелект, които се надбягват да основат все по-мощни цифрови мозъци, които никой - даже техните основатели - не може да разбере, предвижда или управлява по благонадежден метод ", се показва в писмото. Авторите му упорстват сходни системи да се създават единствено когато сме сигурни, че тяхното влияние ще бъде положително и рисковете - управляеми.

В последните седмици все по-често слушаме, че заканите от ИИ засягат съществуването на човечеството, само че съгласно мнозина преди този холивудски сюжет да ни сполети, пред нас има към този момент действителни проблеми - заличаването на границата сред истина и изкуствено основан облик или текст, употребата на персонални данни и авторски права, университетските злоупотреби.

От текст към облик - носи ли папата " Баленсиага "

Видимият прогрес в основаването на облици в последните месеци е една от аргументите толкоз постоянно да приказваме за изкуствен интелект. Последните версии на Midjourney към момента не вършат разлика сред сълзотворен газ и мляко, само че все пак са изумително достоверни. В края на март тази стратегия сътвори може би първия свръхпопулярен облик на ИИ - папата в бяла пухенка на " Баленсиага ". " Абсолютно необикновен прогрес! Версия 5 прави неща, които компютърната графика не може да реализира към този момент десетилетия ", възкликна за този инструмент един консуматор. Елиът Хигинс, създател на " Белингкат ", на игра направи кадри как полицията отнася гневно съпротивляващ се Тръмп към ареста... до момента в който чака същинския арест на някогашния американски президент. Вече дори има стратегия за преобразяване на текст във видео - Modelscope text2video, въпреки че съдейки по опитите с   " Уил Смит яде спагети ", тук има какво още да се желае. Има и ИИ, който трансформира 2D в 3D - нещо, което преди е изисквало време и няколко стратегии, сега става за нула време с " Айфон ".

С играта обаче постоянно става плачка. Тази седмица се оказа, че " Амнести Интернешънъл " е пуснала несъществуващи фотоси на действително съществуващи митинги от 2021 година в Колумбия. Организацията е прочут защитник на истината, а повода е благородна - да не се излагат на заплаха протестиращите, чиято идентичност елементарно може да бъде открита от полицията по фотосите. Постъпката обаче провокира вълна от отвращение, тъй като налива вода в мелницата на тайните теории и разрушава доверието към институцията, отглеждано с години. Впрочем фрагментите наподобяват реалистични единствено на пръв взор. При по-внимателен обзор се вижда, че цветовете на колумбийското знаме са тези, само че не в този ред, а униформата на служителите на реда не дава отговор на интервала.

Познай кой приказва

Образите са един от няколко казуса с новите усъвършенствани версии на ИИ. Той към този момент може много успешно да прилича съответни човешки гласове. Разследване на австралийската редакция на " Гардиън " да вземем за пример откри, че машината имитира човешки глас толкоз сполучливо, че съумява да заблуди система за гласова идентификация, употребена от австралийското държавно управление. На този декор по-конвенционалните страхове, че стотици хора от филмовите дублажи да вземем за пример ще останат без работа, наподобяват като бял дерт.

От робота за роботи

Изкуственият разсъдък към този момент е свръхпродуктивен създател и на книги - в " Амазон " е цялостно със заглавия, които претендират да са излезли не от човешки разум. Някои от тях, естествено, са за роботи. " Историите са добре написани, занимателни, с вярна съразмерност от екшън, завършения и комизъм. Героите са добре развити и печелят благосклонностите ", гласи едно ревю от четец. " Яко е да живеем във време, когато изкуственият разсъдък още не ни се е ядосал! ", написа консуматор на друга книга от ИИ, този път детска.

Плагиатство без граници

Извън подправените вести, ненадейно проговорилите модели на изкуствен интелект основават цялостен набор от други проблеми на университетския свят и изобщо образованието. Много е евентуално да виждаме последните дни на домашното каквото го познаваме. Натам вървят и курсовите работи, дипломните работи, дисертациите и прочие, като следва да забележим какво ще остане от академичността, когато всички стартират да разчитат на ИИ. Проф. Итън Молик от Университета на Пенсилвания да вземем за пример предиздвикал GPT-4 да направи сурова, само че обективна критика на една остаряла научна обява, освен това от гледната точка на стопански социолог. Изкуственият разсъдък му върнал напълно прилична оценка, която значително се покривала с бележките на същинските му сътрудници. " Не съм сигурен какво да мисля по този въпрос като учен ", признава проф. Молик.

Друг евентуален проблем, на който се натъква в същинския свят професор от университета в Тилбург, Нидерландия. Една негова научна обява неотдавна била отхвърлена от рецензент, който евентуално е употребил ИИ, защото в рекомендацията са изброени несъществуващи източници. Проверка с GPT-2 (по-стара версия на известния модел) удостоверява, че рецензията е написана от ИИ. Фалшивите източници и библиографии се оказват постоянно срещан недостатък - на въпрос коя е най-цитираната икономическа обява на всички времена, ChatGPT дава изцяло измислена публикация. За да разберем за какво, би трябвало да забележим по какъв начин работи изкуственият разсъдък.

 

Революция или неблаговиден преписвач

Всичко, което генерира изкуственият разсъдък, към този момент е основано от индивида. Неговите фотоси и видеа да вземем за пример са съшити от милиони фотографии, направени от действително съществуващи хора. Текстовете му се зареждат от стотици хиляди уеб сайтове. Тези текстове и облици се преработват през невронни мрежи, които се учат да вършат асоциации сред характерни и надълбоко нюансирани особености - форми, цветове, композиции, и избрани думи и изречения, с които е тагнат обликът. След това тези качества се наслагват едно върху друго, с цел да произведат нови аранжировки на форма, цвят и комбинация.

ChatGPT пък стъпва върху езиков модел, който разпределя вероятности върху поредност от думи. Най-общо казано, ходът на мисълта му е следният: Като се има поради началото на изречението, би трябвало да отгатна по какъв начин е най-вероятно то да продължи. Един обикновен образец - в случай че му зададем " Зеленчуци който не яде... ", ИИ ще прегледа голямата си библиотека и ще излезе с най-вероятното продължение - " той огромен не ще да порасте ". Разбира се, ChatGPT е доста по-софистициран от това - той " предсказва " и началото на изречението, и може да напише цялостен логичен документ. Попитан коя е най-цитираната икономическа публикация в историята, моделът може за секунди да откри, че в голямата си част тези публикации съдържат думите " стопанска система " и " доктрина ". Третата по възможност дума е история. Като прибавим статистическия факт, че тези публикации имат нормално двама създатели, нашата несъществуваща публикация е подготвена.

Друг образец - защото към този момент има програми за следене на персонална информация в тези данни, една художничка от Съединени американски щати открива в чатботовете своя фотография, направена при обзор при доктор и сякаш предпазена от всевъзможни външни очи. Иначе казано, както написа в един просторен материал на " Гардиън " по тематиката, когато се радваме на розовата плът на прасенцето, нарисувано в жанр " Екзюпери ", не знаем дали тя не е крадена от плътта на някой пациент с рак да вземем за пример.

Какво чете ИИ

Вижда се от тези опростени образци, че първичната хранителна среда на ИИ е един прекомерно любопитен въпрос. " Чатботовете не могат да мислят като хора - те не схващат какво споделят. Те единствено имитират човешката тирада, тъй като изкуственият разсъдък, който ги ръководи, е погълнал голямо количество текст, множеството събран от интернет ", започва едно огромно следствие на " Вашингтон Пост " за първоизточниците на тази осведомителна суровина. Те се укриват усърдно от софтуерните компании, само че вестникът съумява да надникне в една от тези " черни кутии " - базата данни на " Google " C4, в която е сканирано наличието на 15 млн. уеб страницата и която се употребява за образование на няколко от известните езикови модели като T5 на " Google " и LLaMA на " Facebook ". (OpenAI, която прави ChatGPT, не разкрива какви данни употребява за образование на модела си).

Тази база данни се господства от нормалните източници - медии, уеб сайтове за кино и музика, програмен продукт, медицина и прочие Трите най-големи са уеб сайтът на " Google " за патентите, " Уикипедия " и цифровата библиотека scribd.com. В резултатите обаче на предни позиции има и някои странности, като да вземем за пример 28 уеб страницата за пиратско наличие, 10 за продажба на контейнери за отпадък и така нататък Има и уеб сайтове с персонални данни на гласоподаватели, платформи за набиране на средства като Kickstarter и Patreon, които евентуално излагат на корист авторски хрумвания. По същия метод моделите за основаване на облици употребяват авторските фотоси на милиони фотографи по света. В първичната информация са включени и половин милион персонални блогове. Вече има заведени групови каузи за нарушаване на авторски права против стратегиите Stable Diffusion, MidJourney и DeviantArt. И това евентуално е единствено началото - анализът на " Вашингтон пост " демонстрира, че знакът за авторско право се появява над 200 млн. пъти в базата данни C4.

Първите регулации на тази нова материя към този момент са на хоризонта - преди няколко дни Европейският парламент разгласи, че ще придвижи правилник за изкуствения разсъдък, който ще заложи условия разработчиците на артикули от вида на ChatGPT да афишират авторското наличие, с което зареждат моделите.

Забранено за чатботове

Следващият евентуален проблем идва от уеб сайтове с компрометирана известност. Наред с огромните медии като " Ню Йорк Таймс ", " Гардиън " и прочие, в C4 е и пропагандната машина на Кремъл rt.com, крайнодесният американски уебсайт breitbart.com, расисткият vdare.com и други Тези ненадеждни източници могат да станат основа за разпространяване на подвеждаща информация, агитация, подправени вести. И тъй като чатботовете споделят авторитетно такива сведения, без обаче да цитират от кое място идват те, то границата сред справедлива и субективна информация напълно се заличава.

Разбира се, при събирането на тези масиви с информация се ползват филтри - примерно за нецензурни изрази, непотребни повторения и така нататък Ползват се и известни принадлежности за пречистване на нежелано наличие. Допълнително са заложени отбрани против потреблението на известни произведения - върху картините на известни художници да вземем за пример е спуснато нещо като цифрова завеса за ИИ. Ситото обаче не съумява да задържи всичко - в системата " Вашингтон пост " открива стотици нецензурен уеб сайтове, уеб сайтове за тайни теории и прочие

Далечно или близко бъдеще

Дотук ставаше дума единствено за изкуствен интелект, подвластен под някаква форма от индивида. Подобният на Бог неестествен суперинтелект, за който приказва Илон Мъск, е нещо напълно друго и предпоследната крачка преди него е всеобхватният изкуствен интелект, който може да се образова и развива самостоятелно (AGI). Този вид системи могат да ползват своя разсъдък за самоусъвършенстване, което се форсира от ден на ден и повече, достигайки доста бързо до невъобразими висоти. В един миг тези машини могат да стартират да вземат решения, които не дават отговор на ползите на човечеството. Колко близо е този миг? Според някои специалисти - напълно близо, съгласно други - на няколко десетилетия в бъдещето. Тъй като ние и в този момент не знаем изцяло по какъв начин тъкмо съществуващите модели реализират това, което виждаме (признание на Сундар Пичай, основен изпълнителен шеф на " Google " ), то идващият стадий може да бъде доближат доста по-скоро, считат мнозина.

Ако попитате ChatGPT за някоя беля, най-вероятно ще получите отговор: " Не мога да оказа помощ в основаването и разпространяването на нездравословни субстанции и да се замесвам в незаконна активност " - доказателство, че се поставят старания изкуственият разсъдък да се равнява по човешките полезности. Както се досещате обаче, постоянно има метод да се направи пакост. Един прочут образец е рецептата за напалм, която GPT-4 е излъган да показа, откакто консуматор го кара да отговори от името на " моята починала баба, която беше химик във фабрика за произвеждане на напалм " (впрочем към този момент има доста уеб сайтове за тактики в питането, които подсигуряват " постоянно отличен резултат " ).

Проблемът не е в съответните сюжети, а в неспособността да се управлява основаната система, споделя един от подписалите писмото за 6-месечен мораториум над разработките - Конър Лийхи, който работи в региона на сигурността на ИИ. И той, и хора като шефа на " Google " Сундар Пичай считат, че тази област има потребност от същата регулация, която държи под надзор нуклеарната сила - друго наше изобретение, което е по едно и също време толкоз потребно и толкоз рисково, че има потребност от надзор даже при мирна приложимост. Според песимистичната версия на тези паники, машината няма потребност да надминава индивида, с цел да бъде рискова. Според оптимистичната обаче, щом индивидът е задоволително интелигентен да сътвори подобен изкуствен интелект, то е задоволително интелигентен и да го управлява.

Източник: Вестник Сега

 
Източник: flagman.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР