18 - 21 май Лисабон е домакин на 69-ата среща

...
18 - 21 май Лисабон е домакин на 69-ата среща
Коментари Харесай

Защо му е на Билдербергския клуб изкуствения интелект

18 - 21 май Лисабон е хазаин на 69-ата среща на Билдербергския клуб. Поканени са политици, специалисти, представители на университетските среди, промишлеността, финансите, синдикатите и медиите. Приблизително 130 участници от 23 страни са удостоверили присъединяване си (пълният лист тук ).

Основни тематики на полемика през 2023 година: изкуствен интелект, банкова система, Китай, енергиен преход, Европа, водачество на Съединени американски щати, транснационални закани, Русия, НАТО, Украйна, данъчни въпроси. Въпреки поканата на външния министър на киевския режим Кулеба, украинската тематика надалеч не е главната.

Bilderberg 2023 слага изкуствения разсъдък (AI) на върха на дневния си ред: „ Изкуственият разсъдък ще бъде във фокуса на договарянията сред бизнеса и политическия хайлайф в Лисабон. “

Защо AI? Едва ли е загадка.

Изкуственият разсъдък /AI/ е най-мощната технология за водене на война – Пентагонът разгласи публично това в навечерието на срещата на членовете на Билдербергския клуб. Ето думите на ръководителя на Комитета на началник-щабовете на въоръжените сили на Съединени американски щати Марк Мили: „ В листата на технологиите, които идват при нас толкоз бързо, може би най-мощната от всички бързо разрастващи се технологии във войната е изкуственият разсъдък...

Способността да се вземат решения по-бързо и по-точно е доста преимущество във войната. Изкуственият разсъдък и квантовите калкулации ще дадат голямо преимущество на страната, която преуспее в това отношение. "

Войната в тази ситуация се отнася до бойни дейности както на бойното поле, по този начин и в осведомителното пространство. Включително против личните си жители, които не се вписват в „ новото обикновено “. В Съединени американски щати бързо се основава нова федерална организация („ Министерството на истината “), която да постанова „ кодекс на държание “ в платформите на обществените медии.

В Китай структурата, която следи потреблението на AI в осведомителните войни, към този момент е налице. Онзи ден нейни представители оповестиха за първото задържане на човек, употребявал AI за основаване и разпространяване на клюки - благодарение на неразрешен в страната чатбот.

Мъж, арестуван на 5 май в Донгуан, южната провинция Гуангдонг, сътвори подправена вест за дерайлиране на трен посредством ChatGPT и я популяризира от 20 акаунта в обществените медии, отбелязва Baijiahao. В нея се приказва за гибелта на 9 души вследствие на хипотетична влакова злополука на 25 април. Всъщност подобен случай въобще не е имало. Фалшификатът получи повече от 15 хиляди гледания, преди да бъде открит от китайската киберполиция.

„ AI може да основава религии, с цел да управлява хората... След като е овладял единствено човешкия език, AI има всичко належащо, с цел да ни обгърне в свят на илюзии като в „ Матрицата “, споделя Ювал Ноа Харари, правилен адютант и нюзмейкър на Клаус Шваб.

Струва си да се обърне внимание по какъв начин зачестиха и какъв брой нагли и директни станаха сходни изказвания, които към момента се губят в общия безпорядък от несъразмерна информация.

AI може да бъде доста рисков за обществото. Проучване, потвърждаващо това, беше оповестено неотдавна от учени от университета Корнел в Съединени американски щати. В взаимозависимост от пристрастията на техните логаритми, чатботове като ChatGPT, Bard или Claude могат да трансформират метода, по който потребителите мислят без тяхно познание. AI е на първо място логаритъм. Кой за каквото и за каквите цели е научил AI, по този начин и ще работи.

В невоенните области потреблението на AI към момента не е елементарно. Допълнително доказателство за това е „ юристът робот с изкуствен интелект “ (т.е. чатбот), който попадна в групов иск в Съединените щати през март „ за упражняване без лиценз “, който, като в рекламата се твърди, че „ може да промени бъдещето на правото по света, помагайки на милиони хора със правосъдни разногласия “.

О, смелият нов свят на Schwab & Co., където можете да съдите виртуален робот за работа без тапия по право или лиценз! В същото време не самият робот би трябвало да заплати за желае за „ фалшив юридически съвет “, а неговият основател, правната компания DoNotPay. Твърди се, че ищецът Джонатан Фаридиан е вярвал, че купува " използваеми " правни документи и услуги от юрист, дипломиран да ги дава. ". И в този момент той твърди, че държанието на робота е " нелегално " и желае обезщетение...

Архитектите на „ световното презареждане “ имат вяра, че с помощта на изкуствения разсъдък Интернет на телата (IoB) и Интернет на нещата (IoT) през идващите години ще им дадат цялостен надзор върху човешкото здраве, мисли и страсти . „ След като имаме достъп до мислите и страстите на хората, ще имаме достъп и до самите хора “, споделя К. Шваб.

Милиардерът „ футурист “ Рей Кърцвейл, разказвайки на сътрудник на StarTalk Radio „ за разширението на човешкия мозък “, към този момент разгласи: до 2030 година наноботовете ще свържат човешкия неврокортекс с виртуални складове на информация („ облаци “). С други думи, съгласно този въодушевен Шваб-ианец през идващото десетилетие ще има устройства с AI, които могат да бъдат „ вградени в мозъка “.

Шваб и сътрудниците му се стремят да слеят цифровия, биологичния и физическия свят. Те непосредствено заявяват това, като предизвикват чипирането на хора и слагат хората под цялостен надзор благодарение на AI. Бил Гейтс има вяра, че ChatGPT ще " промени света ". В изявление за немския Handelsblatt Гейтс оцени капацитета на срещата в Лисабон като механизъм за световен надзор. Според Гейтс изкуственият разсъдък ще трансформира всички хора в либерали за едно потомство.

Превод: Европейски Съюз

Абонирайте се за нашия Ютуб канал: 

и за канала ни в Телеграм: 

Влизайте непосредствено в сайта   . Споделяйте в профилите си, с другари, в групите и в страниците. По този метод ще преодолеем рестриктивните мерки, а хората ще могат да доближат до различната позиция за събитията!?
Източник: pogled.info

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР