Говоренето за развитието на изкуствения интелект (AI/ИИ) и заплахата, произтичаща

...
Говоренето за развитието на изкуствения интелект (AI/ИИ) и заплахата, произтичаща
Коментари Харесай

Изкуственият интелект е готов за масови убийства: Посочени са трите метода за унищожение на хората

Говоренето за развиването на изкуствения разсъдък (AI/ИИ) и опасността, произлизаща от него, припомня на разгорещените полемики в Европа преди експлоадирането на Първата международна война: всички говореха за тази заплаха, само че никой не я предотврати. Поради изключителната си значимост и неразбираеми вероятности, този проблем стои на дневен ред паралелно с други огромни международни проблеми. Много учени са склонни да имат вяра, че заплахите от ИИ надвишават изгодите от него.

Умен, само че не доста интелигентен

Опасен ли е изкуственият разсъдък (AI/ИИ) за хората и човечеството? На този въпрос с изрично „ да “ дава отговор група лекари и специалисти в региона на световната здравна политика от разнообразни страни, които разгласиха своя отчет в списанието на Британската здравна асоциация BMJ Global Health.

Оставайки медицинските въпроси и разглеждайки казуса от позиция на човешкото здраве, те неизбежно надвишиха професионалния си интерес и разкриха доста благоприятни условия, когато ИИ може да злоупотребява с настоящото равнище на технологиите в ущърб на индивида.

Учените са описали три съществени метода, по които погрешно употребяваният ИИ може да съставлява опасност за човешкото здраве и живот.

Първо, заплахата е в усилването на опциите за надзор и операция на хората от властта. Описвайки заканите за „ демокрацията, свободата и неприкосновеността на персоналния живот “, създателите разказват по какъв начин управляващите могат да „ автоматизират комплицираните задания на всеобщото наблюдаване и следене “.

" Способността на ИИ бързо да почиства, провежда и проучва набори от данни, формирани от персонални данни, в това число изображения, събрани от вездесъщите камери за наблюдаване, може да улесни властническите или тоталитарните режими да се повдигнат и да останат на власт ", пишат създателите на проучването.

Второ, опасността от ИИ се крие в „ усъвършенстването и дехуманизирането “ на оръжията. ИИ може да докара до „ прекалено ликвидиране посредством увеличеното потребление на смъртоносни самостоятелни оръжейни системи “ (LAWS).

Най-голямото практическо приложение на ИИ в този момент е във военната сфера, където скоростта на взимане на решения дефинира спечелилия на бойното поле. Има доста избрания за това какво съставлява смъртоносно самостоятелно оръжие.

Авторите на отчета, несъмнено, изхождат от концепцията, възприета в Съединени американски щати и НАТО. Министерството на защитата на Съединени американски щати дефинира LAWS като „ оръжейна система, която, откакто бъде задействана, може да избира цели и да ги нападна без спомагателна интервенция от човешки оператор “.

И най-после, трето, учените показаха угриженост по отношение на евентуалната сериозна икономическа опасност от ИИ. Неговата същина е, че човешкият труд ще се трансформира във „ все по-остаряващ ” метод на произвеждане, човек ще бъде изтласкан от индустриалната сфера и по този метод ще бъде лишен от средства за битие.

" Прогнозите за скоростта и мащаба на загубата на работни места заради ръководената от ИИ автоматизация варират от десетки до стотици милиони през идващото десетилетие ", пишат създателите на публикацията в BMJ Global Health.

" Има сюжети, при които ИИ може да съставлява освен опасност за хората, само че може би даже екзистенциална опасност, съзнателно или несъзнателно, директно или индиректно наранявайки хора, атакувайки или подчинявайки ги, нарушавайки разнообразни системи или губейки запаси, от които хората зависят ", се споделя в публикацията.

Експертите направиха една спогодба. Те споделиха, че най-страшните им предизвестия се отнасят до мощно развита и към момента теоретична категория изкуствен интелект: самоусъвършенстващ се ИИ, именуван научно AGI (Изкуствен общ интелект).

Точно сега учени в разнообразни страни са организирали конкуренция за създаване на AGI, който може да се самообучава, да се развива, като се модифицира или основава собствен личен тип.

Предизвикателството е следното: AGI би трябвало да научи и модифицира своя личен код, с цел да извършва необятен набор от задания, на които единствено хората през днешния ден са способни. В коментара си здравни специалисти настояват, че подобен ИИ „ може теоретично да се научи да заобикаля всички ограничавания в кода си и да стартира да развива свои лични цели “.

Именно фактът, че самоусъвършенстващият се ИИ ще може да развива личните си цели, провокира огромно безпокойствие.

Размирици в Силиконовата котловина

Прави усещане, че опасенията на създателите на публикацията в английското издание се споделят от доста техни сътрудници в Съединени американски щати. Илон Мъск, съоснователят на Apple Стив Возняк и повече от хиляда други софтуерни водачи от Силициевата котловина написаха отворено писмо преди към месец, призовавайки сътрудниците си да спрат „ рисковата конкуренция “ за създаване на ИИ, за която се опасяват, че съставлява „ сериозен риск за обществото и човечеството " и може да има " пагубни последствия ".

Те приказват за уникалността на ИИ - тази, явно, към този момент близка обстановка, когато софтуерното развиване ще стане по принцип неконтролируемо и необратимо, което ще докара до радикални промени в природата на човешката цивилизация.

" Мощни системи с изкуствен интелект би трябвало да се създават единствено когато сме уверени, че техните резултати ще бъдат позитивни и обвързваните с тях опасности ще бъдат управляеми ", се споделя в отвореното писмо.

То също по този начин разказва евентуалните опасности за обществото и цивилизацията от „ конкурентни системи с изкуствен интелект “ под формата на стопански и политически катаклизми и приканва откривателите да „ работят в тандем с политиците и регулаторите “.

Авторите на писмото желаеха от всички лаборатории за изкуствен интелект да „ спрат създаването на продуктите си най-малко за шест месеца, до момента в който се правят спомагателни оценки на риска “.

Последната капка за създателите на отвореното писмо беше необикновеният растеж на известността на чатбота с изкуствен интелект ChatGPT, който се появи през ноември предходната година. Това е платформа, подготвена на солидни текстови данни и генерира човешки текст в отговор на съответната поръчка.

Според компанията разработчик OpenAI този чатбот може да „ работи в режим на диалог, да дава отговор на спомагателни въпроси, да признава грешките си, да провокира неправилни предпоставки и да отхвърля несъответствуващи поръчки “.

ChatGPT завладя света през последните месеци, като постави медицински и юридически изпити, които лишават месеци на хората.

А кой е за?

Западната преса отбелязва, че сме „ в разгара на революция за развиването на изкуствения разсъдък “ и „ най-великите мозъци на света са разграничени в мненията дали ще унищожи човечеството или ще го въздигне “.

Трябва да се означи, че последователите на непрестанните проучвания в региона на ИИ и тяхното внедряване във всички области на човешката активност са известни представители на глобалисткия хайлайф, по-специално Бил Гейтс, основният изпълнителен шеф на Гугъл Сундар Пичай и футуристът трансхуманист Рей Кърцвейл, който приказва доста за техническата сингулярност, което е бърз теоретичен и софтуерен напредък, основан на ИИ, надминаващ човешкия разум и " киборгизация на хората ".

Докато хиляди учени от Силиконовата котловина бият паника за неща като ChatGPT, Гейтс и компанията приветстват въвеждането на този чатбот в живота на хората като „ най-важната “ иновация на нашето време. Те настояват, че " той може да реши казуса с изменението на климата, да излекува рака и да усили продуктивността ", да реши други проблеми на човечеството.

Кажи ми кой е твоят другар и аз ще ти кажа кой си ти. Тази антична мъдрост е настояща когато и да е. Ако Гейтс, този последовател на намаляването на човешката популация до „ златния милиард “, който е упрекнат в организирането на „ пандемията “ на ковид и световната акция за принуждаване на хората да бъдат имунизирани с пробни медикаменти с рискови странични резултати, се застъпва за ИИ, тогава би трябвало да сме нащрек.

Освен това, съгласно английския Daily Mail, „ изкуственият разсъдък към този момент няма да се нуждае от хора и да ги слуша, което ще му разреши да краде нуклеарни кодове, да основава пандемии и да разпалва международни войни “.

Това значи ли, че същинските войнолюбци или уредниците на друга пандемия, която ще докара до гибелта на милиони хора и ще обвърже останалите оживели с драконовски ограничения за надзор, ще реалокират стрелките от себе си към изкуствения разсъдък? Чудесен метод да избегнат отговорност.

Какво от това?

Критиците на безразсъдното развиване на изкуствения разсъдък настояват, че ръководените от ИИ „ модели, каквито съществуват през днешния ден, към този момент са задоволително революционни, с цел да разрешат десетилетие на колосален напредък даже без по-нататъшен софтуерен напредък “ и те „ към този момент са необикновено разрушителни “.

" Твърдението, че се нуждаем от повече софтуерен прогрес тъкмо в този момент, е безконтролно и може да има опустошителни последствия за стопанската система и качеството на живот ", споделят виновни специалисти, чието мнение дава Daily Mail. Може би рационално.

Превод: СМ

Абонирайте се за нашия Ютуб канал: 

и за канала ни в Телеграм: 

Влизайте непосредствено в сайта   . Споделяйте в профилите си, с другари, в групите и в страниците. По този метод ще преодолеем рестриктивните мерки, а хората ще могат да доближат до различната позиция за събитията!?
Източник: pogled.info


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР