В интервю за The Guardian известният историк и писател Ювал

...
В интервю за The Guardian известният историк и писател Ювал
Коментари Харесай

Ювал Ноа Харари: AI може да предизвика катастрофална финансова криза

В изявление за The Guardian известният историк и публицист Ювал Ноа Харари показва фундаментална угриженост по отношение на тестването на сигурността на моделите на AI, като означи компликацията да се плануват безбройните „ пагубни проблеми “, които една такава мощна система може да сътвори.

„ За разлика от нуклеарните оръжия, тук няма един огромен, рисков сюжет, който всички да схващат ", споделя той.

Харари акцентира, че „ AI вкарва голям брой рискови сюжети, всеки от които е с релативно дребна възможност, само че кумулативното влияние на тези сюжети съставлява екзистенциална опасност за човешката цивилизация. “

Световната среща на върха по въпросите на сигурността на AI в Блетчли Парк, на която водещи държавни управления, в това число Европейският съюз, Обединеното кралство, Съединените щати и Китай, показаха угриженост за AI, се счита от Харари за " доста значима стъпка напред ".

Подписаната там декларация има за цел да насърчи световното съдействие, което е решителен детайл за попречване на рисковия капацитет на изкуствения разсъдък.

Писателят отбелязва, че един от проблемите при тестването на сигурността на моделите е да се плануват всички проблеми, които една мощна система може да провокира.

" AI се разграничава от всяка предходна технология в човешката история, тъй като е първата технология, която може сама да взема решения, сама да основава нови хрумвания и която може сама да се учи и развива. Изключително мъчно е за хората, даже за тези, които са основали технологията, да плануват всички евентуални рискове и проблеми. "

Харари обръща внимание на финансовия бранш като изключително предразположен на въздействието на технологията, поради нейната ориентираност към данните. Той повдига въпроса за вероятността тя да сътвори финансови принадлежности, които да са толкоз комплицирани, че никой човек да не може да ги разбере, сходно на дълговите принадлежности, съдействали за финансовата рецесия от 2007-2008 година, които малко хора разбираха и заради това не бяха съответно контролирани.

Макар Харари да признава, че евентуалната финансова рецесия, провокирана от изкуствен интелект, може и да не унищожи директно човешката цивилизация, той акцентира пагубните опасности, които тя може да породи в стопански, обществен и политически аспект. Той също по този начин предизвестява, че сходна рецесия може индиректно да докара до нови спорове и войни.

Историкът се застъпва за прекъсване на развиването на напреднал изкуствен интелект. Той упорства да се търси отговорност от създалите го компании под формата на обезщетения за вредите, породени от технологията.

Харари акцентира и нуждата от регулаторни институции със задълбочени знания по изкуствения разсъдък. Според него фокусът би трябвало да бъде подложен върху основаването на гъвкави регулаторни рамки, способни да реагират бързо на нововъзникващите пробиви, а не върху съответни разпореждания и закони.

Тъй като дебатът за етичните последствия и сигурността на изкуствения разсъдък продължава, предизвестията на Харари акцентират незабавната нужда от световно съдействие и внимателно контролиране, което да се изяви като способен орган в неразучената територия на изкуствения разсъдък.
Източник: profit.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР