Когато хората говорят за изкуствен интелект, често изплуват страхове, визуализиращи

...
Когато хората говорят за изкуствен интелект, често изплуват страхове, визуализиращи
Коментари Харесай

5 плашещи прогнози за изкуствения интелект

Когато хората приказват за изкуствен интелект, постоянно изплуват страхове, визуализиращи се под формата на андроиди убийци или могъщи компютри, които завземат света.
Холивудски филми, като Blade Runner или Terminator, преглеждат точно страха от това машината да не се обърне против индивида.
От позиция на бизнеса обаче, обстановката се преглежда под формата на пари. Прогнозите сочат, че изкуственият разсъдък (ИИ) може да генерира икономическа стойност за над 1 трилион $ единствено през тази година и близо 4 трилиона $ до 2022 година
Новите технологии и автоматизацията обаче провокират съществени въпроси, свързани с етиката и смяната на съществуващия стопански модел.
Понастоящем ИИ се намира много покрай съзряване, като този термин се тиражира необятно от медии и компании. Инвестициите в тези технологии порастват непрекъснато, което надига неодобрение, че това се случва за сметка на назрели обществени проблеми.

Все отново, до момента в който си приказваме за летящи коли, голяма част от света към момента се бори за чиста питейна вода и храна.
CNBC беседва с специалисти по тази тематика, извеждайки на напред във времето 5 евентуални сюжета, в които най-лошите ни страхове по отношение на ИИ се сбъдват.
Масова безработица
Най-актуалният боязън измежду анализатори и служащи е, че ИИ може да провокира всеобща световна безработица, защото редица специалности ще станат автоматизирани и няма да изискват човешка интервенция.
„ Тези, които евентуално ще изгубят работата си, се тормозят най-много”, споделя Алан Бънди, професор в University of Edinburgh.
По думите му, загубата на работни места е една от основните аргументи за надигането на популизма по света, давайки за образец изборът на Доналд Тръмп за президент на Съединени американски щати и излизането на Англия от Европейския съюз. Според него, в бъдеще хората ще бъдат нужни там, където машините не могат да се оправят, само че това няма да реши предстоящата всеобща безработица.
Защитниците на ИИ показват, че технологиите ще основат нов тип работни места.
Нуждата от инженери ще се увеличи фрапантно, защото технологиите няма да могат да се развият без нужните гении, работещи за това.
Хората ще употребяват ИИ за ежедневните си действия, показват още бранителите на технологията.
Проучване на Gartner планува, че ИИ ще сътвори 2.3 млн. работни места и ще отстрани 1.8 млн. такива до 2020 година, което съставлява чисто нарастване от 500 хиляди работни места. Компанията за изследвания не има вяра, че това ще докара до всеобщи съкращения по света.
В проучване от 2013 година на Oxford University се показва, че някои от най-заменяемите специалности действително са в областта на финансите – застрахователни сътрудници, брокери, банкови чиновници и данъчни админи.
Според анализатори и бизнесмени, всичко това може да се избегне, в случай че се пристъпи към преквалифициране на служащите и основаването на нови типове работни места.
Говори се даже за въвеждането на категоричен базов приход, който да компнесира хората, потърпевши от автоматизацията, само че към този момент тези ходове наподобяват надалеч в бъдещето, защото надали скоро машините всеобщо ще заменят потребността от човешка ръка и преценка.
Война
Войната е боязън, който постоянно е на дневен ред. Развитието на ИИ постоянно се свързва с новаторски военни машини и технологии. Някои се притесняват, че всичко това може да приключи под формата на война.
Шефът на Tesla и SpaceX Илон Мъск предизвести през предходната година, че технологията може да докара до трета международна война.
Етичният проблем е надълбоко залегнал в създаването на ИИ, защото няма никаква гаранция, че новите софтуерни оръжия няма да се употребяват на процедура. Още повече когато приказваме за самостоятелни военни машини, които непосредствено будят асоциации с машини, нападащи хора по лична воля.
Според Франк ван Хармелен, откривател на ИИ към Vrije Universiteit Amsterdam, думата „ страшно” е изцяло точна, когато приказваме за автоматизирани оръжия.
„ Единствената сфера, в която считам, че думата „ страшно” е точна са самостоятелните оръжейни системи... системи, които могат да наподобяват или да не наподобяват на роботи”, споделя Хармелен.
„ Всякаква компютърна система, ИИ или не, която автоматизирано взема решение въпроси на живот и гибел – да вземем за пример дали да изстреля ракета – е фактически плашеща идея”, споделя той.
По-рано през тази година щатската организация Rand Corporation пусна изследване, в което се твърди, че използването на ИИ за военни цели може да провокира нуклеарна война до 2040 година
Презумпцията зад тези голи прогнози се крепи на това, че автоматизираните системи могат да създадат неточност в преценката си, което да отприщи експанзия сред страните.
Още повече, че в историята има такива образци. През 1983 година руски офицер на име Станислав Петров вижда, че съветските компютърни системи неточно бият паника, че Съединени американски щати са изстреляли нуклеарни ракети.
Благодарение на бдителността на Петров, светът не навлиза в нуклеарна война.

Роботизирани лекари
Въпреки че специалистите като цяло се съгласяват, че ИИ ще бъде потребна технология в медицината. В университетските среди обаче съществува страха, че от новите технологии се чака прекалено много, което може да докара до изкривяване на способността на хората да се оправят с голям брой задания, защото делегират това на машините.
„ Всички сполучливи приложения на ИИ в медицината са необикновено сполучливи, само че имат доста стеснен обсег на приложение”, споделя Алан Бънди, професор в University of Edinburgh.
Според него, има действителна заплаха човечеството да се довери на машните за своето здраве, в случай че няма гаранция, че те са способни вярно да разчитат другите обстановки.
Доклад от предходната седмица цитира документи на IBM, показващи по какъв начин техният суперкомпютър Watson е направил голям брой „ рискови и неправилни” назначения за отнасяне на ракови болести.
Други терзания са свързани с голамата база данни, събирана от пациенти и възможната търговия с информация сред разнообразни здравни заведения.
Тези данни могат да се употребяват за предугаждане на възможни болести и използване на предварителна защита на база историята на даден пациент, само че има и терзания къде и по какъв начин ще се съхраняват тези много чувствителни данни, които елементарно могат да се извърнат против хората.
Масово наблюдаване
Експертите се притесняват още, че ИИ може да бъде употребен за всеобщо наблюдаване. В Китай, да вземем за пример, този боязън наподобява се трансформира в действителност.
В разнообразни китайски провинции се ползва композиция от ИИ и технология за лицево различаване като метод за справяне с престъпността.
Китай е голяма страна, където господства комунистическо ръководство. Като цяло постоянно обстановката откъм надзор и наблюдаване там се оприличава на сюжет по Оруел.
Китай е дом на почти 200 млн. камери за наблюдаване, сочи информация, оповестена в New York Times.
Азиатската страна е и единствената страна в света, в която същестсува „ обществена кредитна система”, която следи интензивността на жителите и на база това преценя могат ли да получат достъп до услуги, в това число до самолетни билети или онлайн платформи за запознанства.
Китай се стреми да стане международен водач в ИИ областа до 2030 година, пробвайки се да вдигне цената на своя ИИ бранш до към 150 милиарда $. Властите влагат милиарди, с цел да удовлетворят тази упоритост.
Компанията, която има водещи позиции по отношение на ИИ и лицевото различаване в страната, се споделя SenseTime. Това е най-скъпият ИИ стартъп в света с оценка в размер на 4.5 милиарда $.
Един от главните вложители в компанията е локалният колос Alibaba. SenseTimes работи с управляващите в някои мегаполиси, поредоставяйки услуги, свързани с лицево различаване и впрочем.
Тоби Уолш, професор по ИИ към University of New South Wales, разяснява, че наблюдението се намира високо в листата му за евентуални рискове, които могат да произлязат от ИИ.
Дискриминация
Някои хора могат и да си спомнят за Tay – чатбот, създаден на база ИИ от Microsoft, който бе тестван преди 2 години.
Ботът получи акаунт в Twitter, като за по малко от ден потребителите го упражняваха да разгласява нападателни изявления в поддръжка на Адолф Хитлер и бялото предимство.
Проблемът произлиза от това, че ботът е основан да имитира държанието на потребителите към самия него.
Взимайки поради някои тъмни кътчета на интернет, това, че ботът стартира да бълва расизъм, не е особена изненада.
В последна сметка, Microsoft изтриха регистрацията на Tay в платформата. При все че някои възприеха случая с възприятие за комизъм, обстановката провокира съществени диспути за това, че ИИ прекомерно елементарно може да стане преднамерен към дадени тематики.
Тоби Уолш счита, че дискриминирането е една от непредвидените последствия вследствие на навлизането на новите технологии.
Някои учени предлагат ИИ да бъде основан по този начин, че да не взима поради неща, като раса, пол, обществена роля и впрочем. Но това остава лек политически провкус с леко намигане за обществено инженерство.

Ако желаеме да създадем машина, която е по-съвършенна от нас, хората, дали действително не сътворяваме личния си Бог... или заличител.
Източник: blitz.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР