Изкуственият интелект (AI) съществува от десетилетия, но тази година бе

...
Изкуственият интелект (AI) съществува от десетилетия, но тази година бе
Коментари Харесай

3 пробива, които AI може да направи през 2024 г.

Изкуственият разсъдък (AI) съществува от десетилетия, само че тази година бе във фокуса на вниманието като ChatGPT на OpenAI сътвори наличен, удобен AI за всички. AI обаче има спорна история и днешната технология е предшествана от къс опит от несполучливи опити.

В по-голямата си част нововъведенията в AI наподобява, че могат да подобрят неща като здравна диагностика и научни открития. AI б е употребен и за планиране на опити с квантова физика оттатък това, което хората са си показали.

Но не всички нововъведения са толкоз доброжелателни. От дронове-убийци до изкуствен интелект, който заплашва бъдещето на човечеството, ето някои от най-страшните вероятности на развиването на технологията на изкуствения разсъдък, които евентуално ще се появят през 2024 година

Q* - ерата на Генерален изкуствен интелект (AGI)?

Не знаем за какво тъкмо основният изпълнителен шеф на OpenAI Сам Алтман бе уволнен и възобновен в края на 2023 година Но на фона на корпоративния безпорядък в OpenAI се появиха клюки за напреднала технология, която може да заплаши бъдещето на човечеството. Тази система OpenAI, наречена Q* (Q-звезда), може да въплъщава евентуално новаторската реализация на Генерален изкуствен интелект (AGI - Artificial General Intelligence), оповестява. Малко се знае за тази мистериозна система, само че в случай че отчетите са правилни, тя може да увеличи опциите на AI с няколко равнища.

AGI е хипотетична повратна точка, наречена " сингулярност " ( " Singularity " ), в който AI става по-умен от хората.

Настоящите генерации AI към момента изостават в области, в които хората се оправят доста по-добре, като контекстно основано мислене и същинска креативност. Повечето, в случай че не цялото, наличие, генерирано от изкуствен интелект, просто изхвърля по някакъв метод данните, употребявани за образованието му.

Но AGI може евентуално да извършва избрани задания по-добре от множеството хора,. Може също по този начин да бъде въоръжен и употребен да вземем за пример за основаване на усъвършенствани патогени, пускане на солидни хакерски атаки или образуване на всеобщи операции.

Идеята за AGI от дълго време е лимитирана до научната фантастика и доста учени.

Да доближи тази повратна точка, несъмнено, би било потрес за OpenAI, само че не е и отвън сферата на опциите.

Знаем да вземем за пример, че Сам Алтман към този момент поставя основите на AGI през февруари 2023 година, обрисувайки метода на OpenAI към AGI в. Знаем също, че специалистите стартират да предвиждат иден пробив, в това число основният изпълнителен шеф на Nvidia Дженсън Хуан, който декларира през ноември, че AGI ще бъде доближат през идващите пет години, отбелязва. Възможно ли е 2024 да бъде годината на пробив за AGI? Само времето ще покаже.

Хиперреалистични " дийпфейк " операции

Една от най-неотложните киберзаплахи е тази на дълбоките имитации ( " дийпфейк " ) - напълно изфабрикувани изображения или видеоклипове на хора, които могат да ги показват неправилно, да ги уличат или да ги тормозят. Дийпфейк технологията на AI към момента не е задоволително добра, с цел да бъде забележителна опасност, само че това може да се промени.

AI към този момент може да генерира дийпфейкове в действително време - видео излъчвания онлайн, с други думи - и в този момент е толкоз добър в генерирането на човешки лица, че.

Друго изследване, оповестено в списание на 13 ноември 2023 година, разкри феномена на " хиперреализма ", в които генерираното от AI наличие е по-вероятно да се възприема като " същинско " в сравнение с действително наличие.

Това би направило на практика невероятно за хората да разграничат факт от небивалица с просто око. Въпреки че има принадлежности, които могат да оказват помощ на хората да открият дийпфейковете, те към момента не са всеобщи. Intel да вземем за пример построи детектор за дийпфейкове в действително време, който. Но FakeCatcher, както се споделя този инструмент, дава спорни резултати съгласно.

С развиването на генеративния AI се появява една страшна опция да се употребяват дийпфейкове за опити да се влияе върху изборите на хората. съобщва да вземем за пример, че Бангладеш се приготвя за избори през януари, които ще бъдат провалени от дийпфейкове.

Докато Съединени американски щати се приготвят за президентски избори през ноември 2024 година, има опция AI и дийпфейкове да трансформират резултата за това значимо гласоподаване. да вземем за пример следи потреблението на AI в акции, а също по този начин оповестява, че доста страни нямат закони или принадлежности за справяне със скока на дезинформация, генерирана от AI.

Работещи с AI роботи убийци

Правителствата по света от ден на ден включват AI в принадлежности за водене на война. Правителството на Съединени американски щати разгласи на 22 ноември, че 47 щата са одобрили декларация за - за първи път стартирана в Хага през февруари.

Защо е нужна такава декларация?

Защото " безотговорното " потребление е действителна и ужасяваща вероятност. Вече има да вземем за пример дронове с изкуствен интелект, за които се твърди, че преследват бойци в Либия без човешка интервенция.

AI може да разпознава закономерности, да се самообучава, да прави прогнози или да генерира рекомендации във боен подтекст, а конкуренцията във въоръжаването с AI към този момент е в ход.

През 2024 година е евентуално освен да забележим AI, употребен в оръжейни системи, само че и в логистика и системи за подкрепяне на вземането на решения, както и в научноизследователска и развойна активност.

През 2022 година да вземем за пример AI генерира. Различни клонове на американската войска са, които могат да правят различаване на цели и следене на борби по-добре от хората. Израел също употребява AI за бързо идентифициране на цели минимум 50 пъти по-бързо, в сравнение с хората могат в последната война Израел-Хамас, оповестява.

Но една от най-страховитите области на развиване е тази на смъртоносните самостоятелни оръжейни системи (LAWS - lethal autonomous weapon systems) - или роботи убийци.

Няколко водещи учени и технолози предупреждаваха против роботите убийци, в това число Стивън Хокинг през 2015 година и Илон Мъск през 2017 година, само че технологията към момента не се е материализирала в всеобщ мащаб.

Въпреки това, някои тревожни известия допускат, че тази година може да бъде пробив за роботите убийци.

Русия може да е употребила в Украйна робот палач, наименуван ZALA Aero KUB-BLA. Системата е способна " да разпознава в действително време и класифицира обекти " благодарение на изкуствен интелект (AI), съгласно основаната в Холандия организация (цитирайки Jane`s International Defense Review). С други думи, анализаторите наподобява са забелязали робот-убиец на бойното поле, разяснява.

, че личен състав от Военноморски сили и експерти по роботика създават самостоятелна подводна система от последващо потомство Ghost Shark, която е планувана да се създава " в мащаб ".

Сумата, която страните по света харчат за AI, също е индикатор – като Китай покачва разноските за AI от общо 11,6 милиона $ през 2010 година до 141 милиона $ до 2019 година,. Това е по този начин, тъй като, прибавя изданието, Китай е замесен в конкуренция със Съединени американски щати за въвеждане на смъртоносните самостоятелни оръжейни системи. Комбинирани, тези развития допускат, че навлизаме в нова епоха на войните с AI.

Източник:

 

Източник: inews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР