Бившият директор по бизнес развитие в “Гугъл, Мо Гаудат прогнозира

...
Бившият директор по бизнес развитие в “Гугъл, Мо Гаудат прогнозира
Коментари Харесай

Опасността от изкуствения интелект идва от човека

Бившият шеф по бизнес развиване в “Гугъл ”, Мо Гаудат предвижда възхода на машините. Изкуственият разсъдък, сподели той, ще третира хората като „ отпадък “ и елементарно може да сътвори машини, които да ги унищожат.

Това е единствено една от многото прогнози, че ИИ ще придобие воля, просветеност и ще извърши остарялата фантазия на роботите – „ да убият всички хора “. Ще ни третира ли изкуственият разсъдък като отпадък? Всъщност е неприятно, когато личният ви смарт телефон те презира. Това по някакъв метод понижава самочувствието. Но още по-лошо е, когато той крои подли проекти против вас. Страшно е да носиш евентуален съзаклятник в джоба си. Смартфоните заговорничат ли между тях през нощта, когато вие спите, подготвяйки се за уречения час, когато те – дружно с програмируемите домашен уреди, офис компютри и промишлени роботи – ще свършат с нас, презрените въглероди, и ще живеят своя силициев живот на независимост?

Всъщност възходът на роботите е една от най-обичаните истории в научната фантастика. И до момента в който изкуственият разсъдък от ден на ден замязва на човешки – приказва, рисува, написа, наподобява, много смислени текстове – този ужасяващ сюжет наподобява все по-реален. Вече сме привикнали с интелигентни роботи, които населяват книги и филми, и ни е мъчно да си представим бъдеще без тях.

И тук си коства да отбележим две неща.

Първо, изкуственият разсъдък няма и (имаме съображение да вярваме) в никакъв случай няма да има нещо сходно на воля (усещане за положително или зло) или схващане. По отношение на конспирацията за смарт телефони, можем да въздъхнем с облекчение.

Второ, може да има в действителност големи рискове, свързани с ИИ. Но тези рискове, както и цялата ни история, идват от хората. Грубо казано, в случай че робот-убиец влети във вашия прозорец, това е единствено тъй като ще бъде изпратен от други хора. ИИ може да бъде мощен инструмент за човешкия блян към взаимно и самоизтребление. Човешката раса е рискова сама за себе си - и всички механически благоприятни условия, които тя основава, се трансформират в принадлежности на тази заплаха.

Да стартираме с първото – компютърът няма и не се чака да има схващане. Когато пишем (или превеждаме) текстове, рисуваме картини или композираме музика, ние естествено го вършим в съзнанието - и сме изкушени да припишем схващане на стратегии, които имитират сходни действия. Но още през 80-те години на предишния век философът Джон Сиърл, употребявайки елементарен образец с китайската стая, изясни за какво компютърните логаритми нямат (и няма да имат) схващане и схващане.

Представете си, че симулирате дейностите на компютърна стратегия. Седите в една стая, а под вратата ви се натикан листове с текстове на чужд за вас език. Вие отговаряте на тези набори от знаци съгласно инструкциите, които имате – съставяте предписана поредност от знаци и я пъхнете под вратата. Например, вие сте получили последователността от знаци aliyetafsiri maandishi haya. Обръщайки се към книгата с указания, стигнахте до отговора: mwanaume chumbani.

Ако инструкциите са верни, индивидът, който " приказва " с вас по този метод, ще остане с усещането, че в стаята има някой, който схваща суахили и дава смислени отговори на въпроси. Можете даже да преминете теста на Тюринг, без да забележите - хората извън ще си помислят, че вътре има същински източноафриканец.

Но в реалност вие не знаете нито дума от този език. Може даже да не знаете кой език е това или даже че е език въобще. За вас това не е нищо повече от неправилен набор от букви. Вие просто обработвате тези знаци, които не значат нищо за вас, съгласно даден логаритъм. Алгоритъмът може да бъде доста комплициран - и имитацията на " схващане " е доста качествена. Тук обаче не се случва нищо като съгласие. Така че програмата няма нищо като " схващане ". Има достъп до синтаксиса, само че не и до семантиката. По този метод заплахите от ИИ са свързани не с обстоятелството, че той ще придобие схващане и ще се пропие с неприязън и пренебрежение към нас, а с обстоятелството, че човешката ретроспектива, безнаказаност и просто неприятна воля ще придобият нов мощен инструмент.

Вече се сблъскахме с подправени фотоси, генерирани от ИИ. Скорошен образец е фотография на мощна детонация, за която се твърди, че е избухнала покрай Пентагона. Снимката бързо се популяризира из мрежите и беше подета от редица осведомителни организации, като провокира даже временен спад на финансовите пазари. Отне известно (макар и малко) време, с цел да се уверим, че няма детонация - и изображението е било генерирано благодарение на невронна мрежа.

Разбира се, машинация и имитация постоянно са съществували - само че невронните мрежи основават спомагателни благоприятни условия, неповторими за нашето време. Вече основаването на фалшификат и хвърлянето му в мрежата, където ще бъде забелязано от милиони хора, е въпрос на няколко минути. В случая с Пентагона това беше заряд, който е релативно елементарен за оборване - мястото е отворено, можете да го ревизирате незабавно.

Но занапред ще се сблъскваме с възходяща лавина от имитации, които ще бъдат готови малко по-внимателно - ще отнеме повече време за развенчаване, ще бъдат по-сложни да бъдат разкрити, тъй като по-добре ще потвърдят враждебността, страховете и упованията на аудитория.

Още по-лошо, тези имитации ще могат да оформят както настроението на масите, по този начин и решенията, взети от елитите – изключително в обстановки, в които решенията би трябвало да се вземат бързо. Качеството на тези имитации (и затова компликацията за развенчаването им) ще нарасне бързо. Какво може да се направи по въпроса? Въвеждането на наказателни наказания, условието за слагане на ясни индикации за техния генезис в генерираните от ИИ изображения са ограничения, които са напълно явни, само че незадоволителни. Фактът, че измамите са неразрешени от закона, няма да ви избави от измамници.

Нов свят, в който можете да видите на екрана това, което в никакъв случай не се е случвало в реалност, изисква създаването на избрани правила за персонална сигурност. И тук е доста потребно да си напомним това, което в православната аскетична традиция се назовава „ тестване на мислите “. Става дума за оценка на мислите, които ви идват на разум, първо, от позиция на тяхното морално качество (добри ли са тези мисли?), и второ, от позиция на техните последици (какво ще се случи, в случай че последвам тези мисли?)

В православната традиция някои мисли могат да бъдат въодушевени от враговете на нашето избавление - демоните; те би трябвало да бъдат разпознати и изхвърлени, „ отрязани “.

Независимо дали вярвате в съществуването на демони или не, злонамерени хора, които желаят да ви подбуден към глупави, нездравословни и разрушителни дейности, сигурно съществуват.

В обстановка, в която е мъчно да се реши достоверността на известието, коства си да зададете различен въпрос: какво желае от мен индивидът, който го е похвърлил. В какво положение на мозъка се пробва да ме сложи? Какви дейности да насърчавате?

Ще бъдат ли тези дейности рационални, морални, почтени, градивни?

Умението да мислиш, преди да натиснеш бутона за шерване, постоянно е било значимо - и смисъла му единствено ще нараства.

Превод: В. Сергеев

Абонирайте се за нашия Ютуб канал: 

и за канала ни в Телеграм: 

Влизайте непосредствено в сайта https://  . Споделяйте в профилите си, с другари, в групите и в страниците. По този метод ще преодолеем рестриктивните мерки, а хората ще могат да доближат до различната позиция за събитията!?
Източник: pogled.info

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР