Може би в момента създаваме свят, в който няма да

...
Може би в момента създаваме свят, в който няма да
Коментари Харесай

AI за военна употреба: Бъдеще, в което няма да е безопасно да излезеш навън

" Може би сега сътворяваме свят, в който няма да е безвредно да излезеш на открито, тъй като там може да те преследват рояци роботи. "

Това злокобно предизвестие насочва Джаан Талин, инженер-основател на Skype, в неотдавнашно видеоинтервю за Al Jazeera.

Програмистът е създател на Центъра за проучване на екзистенциалния риск в Кеймбридж и на Института за бъдещето на живота – организации, отдадени на проучването и намаляването на екзистенциалните опасности, изключително на тези от развиването на технологиите с изкуствен интелект, написа Insider.

Препратката на Талин към роботите убийци е асоциация с късометражния филм Slaughterbots от 2017 година, който беше пуснат от Института за бъдещето на живота като част от акция, предупреждаваща за заплахите от въоръжения изкуствен интелект.

Филмът споделя за тъмно бъдеще, в което светът е превзет от милитаризирани дронове-убийци, задвижвани от изкуствен интелект.

С развиването на технологиите за AI, Талин се притеснява най-много от последствията, които военната приложимост може да има за бъдещето на изкуствения разсъдък.

" Използването на AI във военната сфера затруднява управлението на траекторията му, тъй като в този миг се намираме в конкуренция във въоръжаването.

Когато сте в такава обстановка, нямате доста благоприятни условия за маневри, изключително в случай че става дума по какъв начин да методите към тази нова технология. Просто би трябвало да отидете там, където са опциите и където е стратегическото преимущество. ", изяснява Талин.

" Естествената еволюция на изцяло автоматизираната война ще съставлява рояци от дребни безпилотни самолети, които всеки, с задоволително финансови благоприятни условия, може да има и да пуска без да поема отговорност. "

Институтът за бъдещето на живота е склонен с предизвестията на Талин. Нещо повече – тези опасения не са нови и съществуват от години.

Организацията датира от съвсем десетилетие и бързо притегля вниманието на персони като Илон Мъск, който през 2015 година подарява 10 млн. $ на института.

Но в последно време въпросът за могъщата мощ на тази технология е доста по-належащ, най-много след стартирането на ChatGPT и други модели на изкуствен интелект, налични за обществеността, както и с опасенията, че изкуственият разсъдък ще превземе работните места на хората.

Сега откриватели на AI, софтуерни магнати, известни персони и елементарни хора са съществено обезпокоени. Дори режисьорът на " Опенхаймер " Кристофър Нолан предизвести, че AI може да доближи своя " миг на Опенхаймер ".

С други думи, откривателите слагат под въпрос своята отговорност за създаването на технологии, които могат да имат непредвидени последствия, добавя Insider. Изданието напомня, че по-рано тази година стотици софтуерни водачи, измежду които Илон Мъск, съоснователят на Apple Стив Возняк, откриватели от лабораторията за изкуствен интелект DeepMind на Alphabet и известни професори по изкуствен интелект, подписаха отворено писмо, оповестено от Института за бъдещето на живота, в което се приканва за шестмесечна пауза в създаването на модернизиран изкуствен интелект.

(Междувременно Мъск тихомълком се надпреварва да започва своя самодейност за генеративен AI, с цел да се конкурира с OpenAI, която той към този момент показа като проет xAI).

" Усъвършенстваният изкуствен интелект би могъл да съставлява дълбока смяна в историята на живота на Земята и следва да бъде плануван и ръководен със съответното внимание и запаси ", се споделя в писмото.

" За страдание, това равнище на обмисляне и ръководство не се случва, макар че през последните месеци лабораториите се впуснаха в неконтролируема конкуренция за създаване и внедряване на все по-мощни цифрови мозъци, които никой – даже техните основатели, не може да разбере, планува или надеждно да управлява. ", сигнализират още създателите на писмото.
Източник: profit.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР