В наши дни развитието на изкуствения интелект (AI) напредва с

...
В наши дни развитието на изкуствения интелект (AI) напредва с
Коментари Харесай

Хората не откриха извънземни, защото бяха унищожени от AI - това очаква и земляните

В наши дни развиването на изкуствения разсъдък (AI) напредва с бързи темпове. Учените считат, че е доста мъчно да се планува скоростта на еволюцията му. В същото време AI може да се трансформира в страхотен филтър за земляните. И най-вероятно това към този момент се е случило с други цивилизации в космоса. Ето за какво към момента не можем да ги открием.

Новото проучване е оповестено в списание Acta Astronautica.

Едно допустимо решение на известния абсурд на Ферми, т.е. в случай че извънземните съществуват, за какво не сме ги намерили, е хипотезата, наречена Великият филтър. Това е хипотетично събитие или обстановка, която пречи на интелигентния живот да се трансформира в междузвезден тип и даже води до гибелта му. Това може да е нуклеарна война, астероиден удар, световна пандемия и други сходни бедствия.

Авторите на новото проучване считат, че бързото развиване на AI ще докара до появяването на изкуствения суперинтелект (ASI) и той ще се трансформира във Великия филтър. Учените считат, че изкуственият разсъдък може да съставлява сериозна опасност за бъдещото развиване освен на нашата цивилизация, само че и на всички цивилизации в космоса.
 галактически AI  Снимка: Universe Today
Според хипотезата за Великия филтър поражда пагубна обстановка даже преди една напреднала цивилизация да може да засели други планети в своята система, още по-малко да стане междузвезден тип. Типичната дълготрайност на живота на такава софтуерно напреднала цивилизация е по-малко от 200 години. Ако това е правилно, това може да изясни за какво хората към момента не са разкрили доказателства за извънземен разсъдък. Това също допуска, че човечеството също има единствено 200 години бързо софтуерно развиване, което ще бъде спряно от ASI. Учените имат вяра, че в близко бъдеще ASI ще стартира да взема решения вместо хората и това е огромна заплаха за нас.

Известният физик Стивън Хокинг предизвести, че изкуственият разсъдък може да значи края на човечеството, в случай че се развива без значение. ИИ ще се усъвършенства и ще се самовъзпроизвежда и това ще бъде нова форма на живот, която е по-добра от хората, сподели ученият. Авторите на проучването считат, че вероятността ASI да излезе отвън надзор е доста висока и би трябвало да помислим в този момент по какъв начин да предотвратим това.
 Марсианска колония Ако хората съумеят да се трансфорат в космичен тип преди появяването на ASI, тогава те ще диверсифицират тактиките си за оцеляване и може да съумеят да избегнат отвън надзор ИИ, пред който е изправена цивилизацията на планетата. Снимка: Universe Today
Ако ASI може евентуално да унищожи човечеството, тогава това може да се случи с извънземни цивилизации, споделят учените. Факт е, че с цел да съществува ASI, не е нужен биологичният живот, който го е основал. Учените считат, че изкуственият суперинтелект може да сътвори гибелен вирус или да стартира нуклеарна война.

И в това време създателите на проучването считат, че сходно развиване на събитията не е неизбежно. Ако хората съумеят да се трансфорат в космичен тип преди появяването на ASI, тогава те ще диверсифицират тактиките си за оцеляване и може да съумеят да избегнат отвън надзор ИИ, пред който е изправена цивилизацията на една планета. Ако една от планетите, които хората на бъдещето ще заемат, не може да преживее злополуката, основана от ASI, тогава хората на други планети ще оцелеят.

Но главният проблем е, че развиването на изкуствения разсъдък се форсира, до момента в който опитите на хората да станат мултипланетарен тип не се форсират. Според учените сега AI работи в границите, избрани от хората. Но не е известно по кое време AI може да стане ASI и дали въобще ще може да направи това. Но тази опция не може да бъде подценена.
 Превод: GlasNews
Източник: glasnews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР