Има определени страхове, които изскачат на повърхността, когато се говори

...
Има определени страхове, които изскачат на повърхността, когато се говори
Коментари Харесай

Напреднал изкуствен интелект ще управлява света по-добре, отколкото хората някога сме могли

Има избрани страхове, които изскачат на повърхността, когато се приказва за бъдещето на изкуствения разсъдък (ИИ). Да кажем че главният от тези страхове е, че ИИ ще се научи да се самообучава и ще стане доста по-напреднал във всичко, което ние хората можем да реализираме. В неверните ръце или даже в своите лични, толкоз напреднал логаритъм може да се трансформира в доминатор над държавните управления или армиите по света, да превъплати картината на Оруел за равнищата на следене, операция и обществен надзор над обществата и може би даже да реализира цялостен надзор над бойните полета с самостоятелни смъртоносни оръжия като да вземем за пример бойни дронове.

Някои специалисти по ИИ обаче не мислят, че тези страхове са добре обосновани. В реалност, споделят те, високо напреднал ИИ може да е по-добър в ръководството на света в сравнение с ние хората в миналото сме били. Тези страхове са същинската опасност, тъй като може да ни попречат да осъществяваме този капацитет.

Може би НЕреализирането на ИИ е същинската заплаха за човечеството,

споделя Томас Миколов, откривател в плана на Фейсбук за ИИ на конференция в Прага ( The Joint Multi-Conference on Human-Level Artificial Intelligence ).

Като тип, изяснява той, хората сме доста зле, когато би трябвало да създадем избор, който да е добър за нас в дълготраен проект. Хората изсичат дъждовните гори, скапват други екосистеми, с цел да добиват сурови материали, без да са наясно (или без да се интересуват) от метода, по който това способства за бавната, само че (вероятно) необратима цялостна деградация на планетата.

Софистициран изкуствен интелект въпреки това евентуално би бил кадърен да защищити човечеството от личното му късогледство.

„ Ние хората сме доста неприятни в прогнозите за това, което може да се случи в дълготраен проект, да кажем 20-30 години напред във времето “, прибавя Миколов. „ Може би ИИ, който е доста по-умен от нас, в симбиозна връзка, може да ни помогне да избегнем някакви бъдещи катстрофи. “

Сигурно, Миколов е в малцинството, което мисли че свръх ИИ като цяло ще бъде благоразположен. Мнозина панелисти на същата конференция показват общите страхове, изключително за ИИ употребен за рискови цели или ИИ, с който злоупотребяват разнообразни злодеи. И не трябва да омаловажаваме или да се смеем на такива опасения.

Засега даже към момента не знаем дали ще успеем да създадем ИИ с обща просветеност, което се въприема като Светия граал на софистицирания ИИ – подобен, който е в положение да извърши всяка когнитивна задача сходно на хората или по-добре.

Бъдещето на напредналия ИИ е обещаващо, само че идва с голям брой етични въпроси. Засега даже не знаем всички въпроси, на които ще би трябвало да отговорим.

Всички участници в Прага обаче са безапелационни, че би трябвало да се договорим за разпоредбите, още преди са ни потрябвали. Времето да се подпишат интернационалните съглашения, да се основат етичните бордове, да се сформират регулаторните органи, без значение дали частни компании или университетски тела, е в този момент. Поставянето на тези институции и протоколи на място ще понижи риска от това злонамерено държавно управление, академик – изверг или различен недобронамерен персонаж да вкара в деяние зловредна система на ИИ или да трансформира в оръжие напреднал логаритъм. И в случай че в миналото се появи нещо сходно тези структури ще подсигуряват съществуването на метод да се оправим с него.

С налични правила и „ указания за сигурност “ е по-вероятно да живеем в естетика с развиването на ИИ и може би даже да се предпазим от самите нас.

Източник fururism.com.

Източник: megavselena.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР