Изкуственият интелект е екзистенциална заплаха – но не по начина, по който си мислите
Възходът на ChatGPT и други сходни системи с изкуствен интелект е съпроводен от внезапно повишаване и на паниките по отношение на заплахите, свързани с тях; през последните няколко месеца ръководители и откриватели по сигурността на ИИ оферират разнообразни прогнози и разновидности, в които технологията довежда до огромна злополука.
Тези терзания доближиха своя връх през май 2023 година, когато организацията с нестопанска цел Център по сигурност на ИИ разгласява изказване, в което попада изречението: „ Намаляването на риска от това да изчезнем като тип поради ИИ би трябвало да бъде световен приоритет наред с други опасности от публичен мащаб, като пандемии и нуклеарна война. “ Изявлението е подписано от доста основни играчи в региона, в това число ръководителите на OpenAI, Гугъл и Anthropic, както и двама от по този начин наречените „ кръстници “ на ИИ: Джефри Хинтън и Йошуа Бенгио.
Може да се запитате по какъв начин се допуска, че ще се проявят сходни екзистенциални страхове. За един от тях – мисловния екперимент с кламерите на Ник Бостром – към този момент ви разказвахме. Идеята е, че един изкуствен интелект, натоварена със задачата да създава допустимо най-вече кламери, може да предприеме изключителни и непредвидени дейности, с цел да извърши задачата си, като да вземем за пример да посегне на човечеството за да си набави първични материали.
В един различен вид, ИИ, от който се желае да обезпечи резервация в известен ресторант, изключва клетъчните кули и светофарите, с цел да попречи на други гости да получат маса.
Та общо взето главната концепция е една и съща: ИИ бързо се трансформира в изключително кадърен механизъм, добър в постигането на цели, само че рисков, тъй като не всеки път ще се съобрази с моралните полезности на своите основатели. А в най-крайния си вид този мотив се трансформира в експлицитни опасения за подчиняване или заличаване на човешката раса.
През последните няколко години Нир Айсиковиц и неговите сътрудници от Центъра за приложна нравственос към UMass Boston изследват въздействието на ИИ и считат, че тези пагубни паники са пресилени и погрешно ориентирани.
Да, способността на технологията да основава безапелационни надълбоко подправени видео и аудиоклипове е плашеща и с нея могат да злоупотребяват хора с неприятни планове. Всъщност това към този момент се случва: Руски сътрудници евентуално са се пробвали да злепоставят един от критиците на Кремъл, Бил Браудър, като са го въвлекли в диалог с аватар на някогашния украински президент Петро Порошенко. Киберпрестъпниците употребяват клонирането на гласове с изкуствен интелект за разнообразни закононарушения – от високотехнологични кражби до елементарни измами.
Системите с изкуствен интелект, които са интегрирани да утвърждават претенденти за заеми или наемане на работа, носят риск от алгоритмична пристрастност, защото данните, върху които са подготвени и моделите за взимане на решения, с които работят, отразяват дългогодишни обществени предубеждения.
Това са огромни проблеми и изискват вниманието на политиците. Но те съществуват от известно време и надали ще провокират човекоприключващ прелом.
Изявлението на Център по сигурност на ИИ го слага в една група с пандемиите и нуклеарните оръжия като главен риск за цивилизацията. Това съпоставяне има своите проблеми. COVID-19 докара до съвсем 7 милиона смъртни случая в международен мащаб, провокира голяма и продължителна рецесия в региона на психологичното здраве и сътвори стопански провокации, в това число продължителен дефицит по веригата за доставки и гневна инфлация.
Ядрените оръжия евентуално са умъртвили повече от 200 000 души в Хирошима и Нагасаки през 1945 година, лишили са живота на доста повече хора от рак през идващите години, породили са десетилетия на дълбока паника по време на Студената война и са довели света до ръба на заличаването по време на Кубинската ракетна рецесия през 1962 година Те също по този начин трансформират държанието на националните водачи за това по какъв начин да реагират на интернационална експанзия, както сега се случва с нахлуването на Русия в Украйна.
Сценарият с кламерите и други сходни са научна фантастика. Съществуващите приложения на ИИ извършват съответни задания и е надалеч от това да може да вземе решение и по-късно да възнамерява задачите и подцелите, нужни за прекъсване на придвижването, с цел да ви обезпечат място в ресторант, или за взривяване на автомобилна фабрика, с цел да има материали за кламерчета.
Технологията освен не разполага със комплицирания потенциал за многопластова преценка, който се изисква за правене и осъществяване на сходни сюжети, само че и няма самостоятелен достъп до задоволително елементи от нашата инфраструктура, с цел да стартира да нанася такива вреди.
Всъщност потреблението на изкуствен интелект крие екзистенциална заплаха, само че тази заплаха е екзистенциална по-скоро във метафизичен, в сравнение с в апокалиптичен смисъл. ИИ в сегашната си форма може да промени метода, по който хората гледат на себе си, тъй като може да утежни качествата и прекарванията, които хората считат за основни за това да бъдат хора.
Например, ние сме същества, които вършат преценки – рационално преценяме съответните неща и всекидневно вземаме решения на работното си място и през свободното си време по стотици въпроси. Но от ден на ден от тези решения в този момент се автоматизират и се дават на логаритми. Докато това се случва, светът няма да свърши. Но хората последователно ще изгубят способността си да вършат тези преценки сами. И колкото по-малко решения вземаме, толкоз по-лоши ще ставаме в земането на решения.
Или да погледнем ролята на случайността в живота ни – ние ценим (макар и със задна дата) да попаднем инцидентно на уместно и вълнуващо място, човек или активност. Ролята на алгоритмичните системи обаче е да понижат този тип случайност и да я заменят с обмисляне и прогнозиране.
И най-после, да разгледаме опциите за писане на ChatGPT. Технологията е в развой на елиминиране на ролята на писмените задачи във висшето обучение. Но в случай че това стане, преподавателите ще изгубят основен инструмент за образование на студентите по какъв начин да мислят сериозно.
С две думи – не, изкуственият разсъдък няма да убие света. Но все по-безкритичното му разбиране в най-различни тесни контексти може да аргументи постепенна ерозия на някои от най-важните умения на хората. Алгоритмите към този момент подкопават способността ни да преценяме, да се любуваме на инцидентни завършения и да усъвършенстват сериозното си мислене.
Човешкият тип ще преживее тези загуби. Но в процесa методът ни на битие ще обеднеe. И фантастичните паники към някакъв прелом, породен от ИИ, прикриват тези по-фини рискове. Спомнете си известните заключителни редове на Т. С. Елиът от „ Кухите хора “:




