Историкът и писател Ювал Ноа Харари заяви пред The Guardian,

...
Историкът и писател Ювал Ноа Харари заяви пред The Guardian,
Коментари Харесай

Отново Ювал Харари: „Изкуственият интелект може да предизвика нова катастрофална финансова криза“

Историкът и публицист Ювал Ноа Харари съобщи пред The Guardian, че изкуственият разсъдък може да провокира финансова рецесия с „ пагубни “ последствия с невъобразим до момента мащаб. Според него сложността на технологията затруднява предвиждането на заплахите от нея. Харари, който е прочут с рецензиите си към развиването на изкуствения разсъдък, счита, че сигурността на тези системи не може да бъде обезпечена, защото те могат да доведат до голям брой рискови сюжети, които да застрашат самото битие на човешката цивилизация.

На международната среща на върха за сигурността на ИИ в Блетчли Парк (Station X) бе подписана многостранна декларация, която Харари назовава „ доста значима стъпка напред “. Водещи държавни управления показаха своята угриженост и предпочитание за съдействие в тази област. Харари счита присъединението на Китай към декларацията за изключително значимо, като акцентира, че без световно съдействие прекъсването на най-опасните благоприятни условия на ИИ ще бъде извънредно мъчно.

Срещата на върха приключи със съглашение за съдействие сред 10 държавни управления, в това число Съединени американски щати и Обединеното кралство, Европейския съюз и най-големите компании за работа с изкуствен интелект – OpenAI и Гугъл – за тестване на усъвършенствани модели на ИИ преди и след стартирането им на пазара.

Харари акцентира, че ИИ се разграничава от всички предходни технологии по това, че може независимо да взема решения, да основава нови хрумвания и да се развива. Той показва финансите като област, която е идеално пригодена за ИИ системите и е евентуален източник на огромна рецесия.

Харари допуска, че ИИ би могъл да сътвори финансови принадлежности, които са с порядък по-сложни от тези, довели до рецесията през 2007-2008 година, и които никой няма да може да разбере, което ще затрудни тяхната регулация. Идеята е, че изкуственият разсъдък се възприема от експертите в тази област като някаква черна кутия, която получава входни данни и дава правилни отговори, единствено че никой не знае по какъв начин тъкмо става това и какви процеси протичат по време на образованието на невронните мрежи и при тяхното потребление. А това значи, че тяхната регулация и извънредно сложна.

Правителството на Обединеното кралство неотдавна изрази угриженост по отношение на евентуалната опасност от актуалните напреднали модели на ИИ, които могат да управляват и манипулират финансовите системи. Според Харари обаче една рецесия, провокирана от ИИ, сама по себе си не би унищожила човешката цивилизация, макар че индиректно би могла да докара до войни или спорове, сподели ученият.

Харари, който поддържа апелите за шестмесечна пауза в създаването на модернизиран и повсеместен изкуствен интелект и е последовател на търсенето на отговорност от фирмите, разработващи изкуствен интелект, за вредите, породени от техните артикули, съобщи, че фокусът не би трябвало да пада върху съответни закони, а върху основаването на регулаторни органи, които да могат да реагират бързо на новите софтуерни пробиви.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР