Всяка нова технология дава много, но може да се използва

...
Всяка нова технология дава много, но може да се използва
Коментари Харесай

Големите опасности, свързани с развитието на изкуствения интелект

Всяка нова технология дава доста, само че може да се употребява и погрешно. Днес изкуственият разсъдък се употребява за най-хубави цели, в това число за възстановяване на качеството на здравната диагностика, за търсене на нови способи за лекуване на рак или за повишение на сигурността на колите.

За страдание, защото опциите на изкуствения разсъдък (AI) се уголемяват, той може да стане рисков или да се употребява с неприятни планове.

Редица известни персони, измежду които именитият физик Стивън Хокинг и новаторът Илън Мъск, считат, че изкуственият разсъдък може да бъде рисков. Мъск един път даже съобщи, че AI е рисков като деспот в Северна Корея.

Основателят на Microsoft Бил Гейтс също счита, че има аргументи да бъдем внимателни по повод AI, само че той може да свърши добра работа, в случай че се отнасяме към него вярно.

Рисковете на изкуствения разсъдък

Тъй като технологии, които можем да причислим към изкуствения разсъдък и обвързваните с него промишлености се развиват с високи темпове, мнозина към този момент мислят за евентуалните рискове. Ето за какво е толкоз значимо да се обсъдят опциите за обезпечаване на сигурността на хората от дейностите на изкуствения разсъдък и минимизиране на неговия деструктивен капацитет.

Въпреки обстоятелството, че множеството модерни устройства са предопределени да бъдат благословия за човечеството, специалистите считат, че всеки мощен инструмент може да се употребява, с цел да навреди, в случай че този инструмент попадне в несъответствуващи ръце.

Днес технологията AI е на доста високо равнище, в това число принадлежности като различаване на лица, обработка на естествени текстове и интернет поръчки.

В момента специалистите в тази област работят по основаването на изкуствен интелект, чиито системи могат да извършват всевъзможни задания, които човек може да прави, и с висока степен на възможност той ще надмине всеки от нас.

Всъщност скоростта на развиване на изкуствения разсъдък е в действителност невероятна. Сега има доста устройства, работещи с непосредствен до изкуствения разсъдък, които вършат всекидневието ни по-удобно и дейно.

Въпреки обстоятелството, че машината със супер разсъдък към момента не е измислена, съществуват редица правни, политически, финансови и регулаторни въпроси, които би трябвало да бъдат решени, с цел да бъдат подготвени за безвредното действие на такова устройство.

Дори макар неналичието на такава машина, изкуственият разсъдък към този момент може да носи избрани опасности. По-долу ще разкажем за някои от тях по-подробно.

Автономни оръжия

Изкуственият разсъдък може да бъде програмиран да прави нещо рисково, да вземем за пример да ръководи самостоятелни оръжия, програмирани да убиват. И това е един от действителните рисковете, свързани с AI.

Експертите считат, че нуклеарната конкуренция може в последна сметка да се трансформира в международна конкуренция за самостоятелни оръжия.

В допълнение към обстоятелството, че самостоятелните оръжия могат да създадат нещо по собствен метод, по-реална опасност е, че такива оръжия попадат в ръцете на държавни управления, което в действителност не ценят човешкия живот.

Ако се разгърнато един път, такова въоръжение ще бъде извънредно комплицирано да се изключи и сложи под надзор.

Манипулиране на публичното мнение

Социалните мрежи, с помощта на автоматизираните логаритми, са доста ефикасни в целевия маркетинг.

Те знаят кой сте, какво ви харесва и също стават доста положителни в това да допускат какво мислите.

Още е в ход следствието за Cambridge Analytica и други сродни компании, които са употребявали данни от 500 милиона консуматори на Фейсбук, с цел да предвиждат резултатите от президентските избори в Съединени американски щати през 2016 година и резултатите от референдума за Brexit във Англия. Ако обвиняванията бъдат доказани, това ще покаже големите благоприятни условия за изкуствен интелект в региона на манипулирането на публичното мнение.

Чрез разпространяването на агитация ориентирана към хора, избрани от логаритми и по персонални данни, изкуственият разсъдък може да популяризира всякаква информация, която се изисква - във формат, който наподобява най-убедителен, без значение дали е правилно или не.

Вмешателство в частния живот

В момента може да се наблюдава и проучва всяка стъпка на човек в интернет, както и това, което всеки прави като част от неговия бизнес.

Камерите са съвсем на всички места, а механизмите за различаване на лица разрешават да се разберете кой сте.

Тези механизми способстват за развиването на обществена кредитна система в Китай, която дава на всеки жител несъмнено количество точки въз основа на неговото държание.

Оценяват се нарушавания като прекосяване на пътя при алена светлина, пушене на несъответствуващи места, какъв брой време човек прекарва във видео игри.

Big Brother в действителност ни следи и взема решения въз основа на тези данни. Това не е единствено интервенция в персоналния живот, само че може бързо да докара до обществено подтисничество, опасяват се анализатори.

Несъответствието сред нашите цели и задачите на машината

Хората правят оценка машините с изкуствен интелект по тяхната успеваемост при решаването на избрани задания.

Но в случай че не сложим ясни цели, да вземем за пример, на безпилотния автомобил, тогава тя може да бъде рискова, защото колата ще има разнообразни цели от нас.

Например командата " да ме води до летището колкото е допустимо по-скоро " може да докара до тежка злополука поради висока скорост. Ако не програмираме авансово, че разпоредбите на пътя би трябвало да се съблюдават във всеки случай, автомобилът може да извърши настояването безусловно и да достави на летището допустимо най-бързо, само че оставяйки доста жертви по пътя си.

Или автопилотът да не избере вярно: кого да избави - пешеходец дете или самата кола.

Дискриминация

Тъй като машините могат да събират, наблюдават и проучват всички данни за вас, е евентуално тези машини да употребяват тези данни против нас.

Лесно е да си представим, че застрахователната компания ви отхвърля, въз основа на данните за това какъв брой пъти ви е хванала камерата, когато шофирате с телефон в ръка.

Или евентуален шеф може да ви откаже работа въз основа на вашия " обществен рейтинг ". /money.bg
Източник: dnesplus.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР