ВНИМАНИЕ! Изкуственият интелект има потенциал да предизвика ядрена война
Експерти по спорове се притесняват, че изкуственият разсъдък може да провокира инцидентна нуклеарна война. Стокхолмският интернационален институт за проучване на мира (SIPRI), водещата международна организация за нуклеарни оценки, съобщи, че технологии като изкуствения разсъдък утежняват риска, подбуден от възходящите световни нуклеарни арсенали.
SIPRI уточни бързо възходящия боеприпас на Китай от 500 на 600 единствено за една година, както и идното приключване на окончателния контракт за надзор на въоръженията сред Съединени американски щати и Русия – и двете нуклеарно въоръжени.
Директорът на института Дан Смит предизвести: „ Един от съставените елементи на идната конкуренция във въоръжаването ще бъде опитът за придобиване и поддържане на конкурентно преимущество в региона на изкуствения разсъдък (ИИ), както за офанзивни, по този начин и за отбранителни цели. Има изгоди, само че небрежното приемане на ИИ може доста да усили нуклеарния риск “.
Той добави, че въпреки ИИ да може да улесни оценката за спазването на нуклеарното съглашение, евентуално ще даде на страните, както и на недобросъвестните групи, опцията да вземат по-бързи и по-малко премислени решения.
„ Тъй като новите технологии форсират вземането на решения в рецесия, съществува и риск от война вследствие на недоумение, неразбирателство или даже техническа неточност “, споделя той. „ Признаците са, че се приготвя нова конкуренция във въоръжаването. В съпоставяне с предходната, рисковете евентуално ще бъдат по-разнообразни и по-сериозни “.
В момента девет страни имат нуклеарни оръжия.
Докато пет от тях, а точно Англия, Франция, Съединени американски щати, Русия и Китай, са подписали контракта за неразпространение на нуклеарни оръжия, Индия и Пакистан не са го създали. Северна Корея го подписа, само че отдръпна подписа си малко преди да организира първия си нуклеарен опит.
Междувременно Израел не е подписал контракта, нито пък е заявил обществено съществуването на нуклеарни оръжия. Смята се обаче, че има 90 такива. В момента страната е в яростен спор с Иран, нация, упрекната в създаване на технологията, нужна за основаване на нуклеарни бомби.
Президентът на Съединени американски щати Доналд Тръмп прикани иранците да изтеглят Техеран.
Той се базира на това, което самичък дефинира като отвод на държавното управление на страната от съглашение за ограничение на създаването на нуклеарни оръжия, защото Израел и Иран не стопират да се нападат дни наред. Световните водачи, събрани на срещата на върха на Г-7 в Канада, приканиха за деескалация на най-лошия спор сред районните врагове, заявявайки, че Иран е източник на неустойчивост и в никакъв случай не би трябвало да има нуклеарно оръжие, като в същото време потвърдиха правото на Израел да се пази.
Тръмп, който напусна срещата на върха прибързано заради обстановката в Близкия изток, съобщи, че напускането му „ няма нищо общо “ с работата по съглашение сред Израел и Иран, откакто френският президент Еманюел Макрон разгласи, че Съединени американски щати са инициирали предложение за преустановяване на огъня.
„ Грешка! Той няма визия за какво потеглих за Вашингтон, само че сигурно няма нищо общо с прекратяването на огъня “, написа Тръмп в платформата си Truth Social.
Президентът на Съединени американски щати съобщи, че Иран е трябвало да подпише съглашение със Съединените щати и прикани жителите да изтеглят иранската столица.
„ Просто казано: ИРАН НЕ МОЖЕ ДА ИМА ЯДРЕНО ОРЪЖИЕ. Казах го още веднъж и още веднъж! Всички би трябвало неотложно да изтеглят Техеран! “, уточни Тръмп.
Но да се върнем към изкуствения разсъдък.
Преди две години Forbes разгласява и други опасности, които крие софтуерното разгръщане и все по-широката му приложимост. Липсата на бистрота в системите за изкуствен интелект, изключително в моделите за надълбоко образование, които могат да бъдат комплицирани и сложни за пояснение, е сериозен проблем. Тази неяснота замъглява процесите на взимане на решения и главната логичност на тези технологии.
Системите с ИИ могат по нехайство да затвърдят или засилят публичните предубеждения заради подадени пристрастни данни за образование или алгоритмичен дизайн. Технологиите с ИИ постоянно събират и проучват огромни количества персонални данни, което повдига въпроси, свързани с неприкосновеността на персоналния живот и сигурността на информацията.
С усъвършенстването на технологиите на ИИ се усилват и рисковете за сигурността, свързани с тяхното потребление, както и капацитетът за корист с тях.
Рискът създаването на изкуствен интелект да бъде доминирано от дребен брой огромни корпорации и държавни управления може да задълбочи неравенството и да ограничи разнообразието в приложенията на ИИ. Прекалената взаимозависимост от изкуственият разсъдък може да докара до понижаване на творчеството, уменията за сериозно мислене и човешката вътрешен глас. Автоматизацията, ръководена от ИИ, има капацитета да докара до загуба на работни места в разнообразни браншове, изключително за нискоквалифицираните чиновници.
Колкото повече се разчита на връзка и взаимоотношения, ръководени от ИИ, толкоз по-бързо може да се стигне до загуба на емпатия, обществени умения и човешки връзки. Съдържанието, генерирано от ИИ, способства за разпространяването на погрешна информация и за манипулиране на публичното мнение.
Източник: Daily Mail; Forbes Превод: SafeNews
Още вести четете в: Живот, Свят, Темите на деня За още настоящи вести: Последвайте ни в Гугъл News




