Невронните мрежи ще унищожат човечеството. Наистина ли?
Някои откриватели в региона на машинното образование считат, че невронните мрежи ще стават все по-неуправляеми и евентуално ще излязат отвън надзор, заплашвайки човечеството с злополука и даже изгубване. От друга страна, техни сътрудници считат, че заплахата от актуалните интелигентни системи не включва изгубването на човечеството, а някои учени са просто паникьори. И по този начин, кой от тях е прав? И по какъв начин да го разберем? Един от вероятните отговори оферират създателите на нова научна работа от изследователския институт Forecasting, които са помолили специалисти по изкуствен интелект и други екзистенциални опасности, както и експерти по сполучливо прогнозиране на международните събития, да оценят заплахата, която съставлява изкуственият разсъдък. Нека се спрем по-подробно на техните заключения.
ИИ (изкуственият интелект) е компютърна система, която може да извършва задания, нормално изискващи човешка просветеност, като да вземем за пример различаване на тирада и взимане на решения.
ИИ ще унищожи човечеството
Неведнъж сме споменавали, че системите с изкуствен интелект могат да съставляват сериозна опасност за бъдещето на човечеството. Нещо повече, писателите на научна фантастика просто обожават тази тематика, а филми като „ Аз, роботът “ и „ Терминатор “ от дълго време са се трансформирали в паметни. Между другото, доста изтъкнати учени са съществено загрижени за евентуалните опасности, подбудени от изкуствения разсъдък.
Един от тези, които намерено и поредно показваха опасенията си от опасността на изкуствения разсъдък за човечеството, беше професор Стивън Хокинг, който нееднократно е заявявал, че развиването на изкуствения разсъдък може да бъде „ или най-лошото, или най-хубавото събитие в човешката история„. Той предизвести, че в случай че ИИ бъде основан и талантлив със гигантски разсъдък, той сигурно може да излезе отвън надзор и да унищожи нашата цивилизация.
Професор Ник Бостром, шеф на Института за бъдещето на човечеството към Оксфордския университет, също предизвестява за вероятните рискове от ИИ. В книгата си „ Суперинтелигентност: пътища, рискове, тактики “ той разказва сюжети, при които основаването на свръхинтелигентен ИИ може да докара до пагубни последствия за човечеството. Бостром акцентира нуждата от създаване на ограничения за сигурност и етични правила, които да управляват развиването на ИИ.
Друг прочут откривател, който се застъпва за внимателен метод към създаването на ИИ, е Стюарт Ръсел, професор по компютърни науки в Калифорнийския университет в Бъркли. Ръсел показва угриженост, че ИИ може да стане толкоз образован, че няма да сме в положение да предвидим дейностите му. Той също по този начин счита, че би трябвало да се разработят безвредни и етични способи за основаване и надзор на ИИ.
Както може да се види, угриженост по отношение на евентуалните закани от ИИ показват доста учени и софтуерни специалисти.
Невронните мрежи са потребен инструмент
Невронните мрежи са ИИ системи, основани на структурата и функционалностите на човешкия мозък, които могат да се учат и приспособяват, изпълнявайки комплицирани задания.
Сред учените и специалистите, които считат, че изкуственият разсъдък не съставлява сериозна опасност за човечеството, могат да се посочат няколко видни персони. Тези специалисти акцентират капацитета на изкуствения разсъдък за възстановяване на живота и решение на многочислените проблеми, пред които е изправено човечеството.
Един от тях е Родни Брукс, някогашен шеф на Лабораторията за изкуствен интелект на Масачузетския софтуерен институт и съосновател на iRobot. Брукс е прочут със своя песимизъм към апокалиптичните прогнози за бъдещето на ИИ и твърди, че страховете, че ИИ ще унищожи човечеството, се основават на пресиления и недоумение на актуалното положение на технологията. Според него сме доста, доста надалеч от основаването на ИИ, който би могъл да съставлява действителна опасност.
Друг прочут специалист с позитивно мнение за развиването на ИИ е Андрю Нг, професор в Станфордския университет и един от създателите на Coursera. Нг вижда ИИ като мощен инструмент за възстановяване на живота на хората.
„ Настоящите достижения в региона на ИИ, като да вземем за пример разпознаването на изображения и обработката на натурален език, са от огромна изгода в медицината, образованието и други области. Страховете от ИИ постоянно са пресилени и фокусът би трябвало да бъде ориентиран към решаването на по-належащи въпроси, като да вземем за пример обезпечаването на етично потребление на технологиите и отбраната на данните “, отбелязва той.
Ян Лекун, началник на отдела за изкуствен интелект във Фейсбук и един от пионерите на дълбокото образование, също показва оптимизъм във връзка с ИИ. Лекун има вяра, че ИИ може да донесе обилни изгоди за обществото, в случай че бъде вярно планиран и употребен. Той акцентира смисъла на интердисциплинарния метод и съдействието сред учените, инженерите и обществото за основаването на безвредни и потребни ИИ системи. Лекун също по този начин акцентира нуждата от реалистично разбиране на опциите и рестриктивните мерки на актуалните ИИ технологии.
Друг образец за позитивен метод към изкуствения разсъдък е този на Орен Етциони, основен изпълнителен шеф на Института „ Алън “ за изкуствен интелект. Етциони твърди, че ИИ не съставлява екзистенциална опасност за човечеството. Той счита, че актуалното развиване на ИИ е ориентирано към решаването на съответни проблеми и възстановяване на живота на хората. Според него е належащо да се съсредоточим върху регулирането и етичните аспекти на потреблението на ИИ, а не върху опасенията за вероятното заличаване на човечеството.
Кой в действителност е прав?
И по този начин, по какъв начин можем да разберем кой академик е прав и каква опасност съставляват актуалните интелигентни системи за света? Изследователите от Foresight Research Institute се пробваха да намерят отговор на този въпрос, като помолиха специалисти в региона на машинното образование и видни прогнозисти да оценят заплахите, които съставлява изкуствения разсъдък.
Резултатът бе не по-малко спорен от мненията на учените, показани нагоре – двете групи интервюирани специалисти се разминаваха в доста връзки. Освен това специалистите, взели участие в изследването, като цяло бяха доста по-притеснени от прогнозистите и залагаха доста повече на Катастрофата.
Авторите на изследването, оповестено в формалния уеб уебсайт на института, желаят да схванат за какво специалистите се разминават толкоз мощно и провеждат по този начин нареченото „ спортно съдействие “: двете групи тествани специалисти са прекарали доста часове (средно 31 часа за специалистите и 80 часа за прогностиците) в четене на най-новите материали за ИИ и разискване на тези въпроси с хора с противоположни възгледи под управлението на модератор.
Идеята бе да се ревизира дали даването на повече информация и по-добри причини на всяка от групите може да ги накара да трансформират мнението си. Изследователите бяха любопитни да открият и „ основните моменти “: въпроси, които оказват помощ да се обяснят убежденията на дадена група, и информация, която може да промени мнението им. Авторите на публикацията се концентрират върху разногласието за капацитета на изкуствения разсъдък да унищожи човечеството или да провокира стопански срив.
Резултатите, както беше упоменато нагоре, са смесени – поддръжниците на концепцията, че ИИ е опасност за човечеството, понижиха вероятността за злополука преди 2100 година от 25% на 20%, до момента в който оптимистите я усилиха от 0,1% на 0,12%. С други думи, и двете групи останаха на същото равнище, от което са почнали.
Въпреки това отчетът е впечатляващ, тъй като съставлява необичаен опит да се съберат на едно място интелигентни, добре осведомени хора, които са на друго мнение. Въпреки че резултатите от изследването не позволяват различията сред специалистите, то хвърля светлина върху това от кое място идват тези различия.
Глобалните опасности
Разбира се, има и редица други опасности, свързани с ИИ, с доста от които към този момент се сблъскваме през днешния ден. Например, съществуващите системи за ИИ от време на време демонстрират тревожни пристрастия и са доста положителни в заблуждаването на потребителите, което значи, че те в действителност могат да бъдат употребявани за причиняване на щета. Но тази щета, въпреки и безспорно сериозна, явно бледнее в съпоставяне със „ загубата на надзор над ИИ и вследствие на това всички ще умрат “.
Така че за какво специалистите по машинно образование показват толкоз разнообразни отзиви? Авторите на научната публикация допускат, че това не се дължи на разликите в достъпа до информация или на неналичието на осведоменост за другите гледни точки.
„ Ако казусът беше подобен, враждебното съдействие при всеобщото излагане на нова информация и противоположните възгледи би трансформирало убежденията на хората още по-драстично “,
се споделя в публикацията.
Интересно е, че огромна част от различията не се изясняват с другите хрумвания за това какво ще се случи с изкуствения разсъдък през идващите няколко години. Когато откривателите разделят оптимистите и песимистите на двойки и съпоставят възможностите им за злополука, разликата е приблизително 22,7%. Най-голямо значение обаче имали разликите във възгледите за дълготрайното бъдеще.
Оптимистите като цяло имат вяра, че основаването на супер ИИ ще отнеме повече време, в сравнение с песимистите считат. Много от тях се базират на нуждата роботиката да доближи равнището на индивида, а освен на програмния изкуствен интелект, и настояват, че това ще бъде доста по-трудно да се реализира.
Едно е да пишеш код и текст на преносим компютър, а напълно друго е да се научиш като машина да обръщаш палачинки, да миеш теракот или да изпълняваш някоя от многото други физически задания, в чието осъществяване роботите към този момент превъзхождат хората. В края на краищата езиковите модели са просто езикови модели, а не цифрови хиперхуманоидни Макиавели, които работят за постигането на своята цел.
Разногласия и отговори
Най-интересният източник на противоречие, разпознат от откривателите, е по този начин нареченото „ фундаментално противоречие в настройките “. Това е хубав метод да се каже, че те не са съгласни с това кой носи тежестта на доказване в дадена полемика.
И двете групи са съгласни, че „ невероятните изказвания изискват невероятни доказателства “, само че не са съгласни кои изказвания са невероятни. Дали е извънредно да се има вяра, че изкуственият разсъдък ще убие цялото човечество, макар че човечеството съществува от стотици хиляди години, или е извънредно да се има вяра, че човечеството ще продължи да оцелява дружно с изкуствен интелект, който е по-интелигентен от хората? “
– обобщават откривателите.
Това сигурно не е най-окуражаващото умозаключение, до което може да се стигне в изследването. Несъгласията, подбудени от съответните разлики в мненията за това какво ще се случи през идващите няколко години, се позволяват по-лесно, защото се основават на това по какъв начин ще протекат идващите няколко години, а не на дълбоки, сложни за смяна разлики в визиите на хората за това по какъв начин действа светът и кой носи тежестта на доказателствата.
Така или другояче, бъдещето не ни е известно, а изкуственият разсъдък по този начин или другояче ще продължи да се развива. Накратко, към момента няма елементарни отговори на толкоз комплицирани въпроси.