ООН има намерение да регулира използването на изкуствен интелект във

...
ООН има намерение да регулира използването на изкуствен интелект във
Коментари Харесай

Роботите-убийци: предимство за военните или заплаха за човечеството?

Организация на обединените нации има желание да контролира потреблението на изкуствен интелект във военните технологии.

Използването на дронове с изкуствен интелект (AI) за таргетиране става все по-разпространено. Някои дронове са способни независимо да откриват задачите и да ги унищожават. Това провокира угриженост измежду откривателите и юристите. Разработването на по този начин наречените „ летални самостоятелни оръжия “ (LAWs) притегля вниманието на целия свят, който към този момент е вложил обилни средства в стратегия за създаване на сходни устройства.

Дебатът за потреблението на AI във въоръжените спорове продължава с цялостна мощ, защото самостоятелните оръжейни системи могат да понижат риска от инцидентни жертви и да покачат точността на ударите. Съществува обаче и риск от съществени неточности и етични проблеми, свързани с прехвърлянето на решенията за набелязване на задачите към актуалните логаритми.

Важна стъпка в регулирането на този въпрос стана включването на LAWs в дневния ред на Общото заседание на Организация на обединените нации, планувано за септември. Генералният секретар на Организация на обединените нации Антониу Гутериш изрази предпочитание до 2026 година да се забранят оръжията, работещи без човешки надзор.

Контролът и регулирането на сходни оръжия не престават да бъдат обект на яростни диспути. Това е по този начин, защото интернационалната общественост към момента не е стигнала до общо определение на самостоятелните оръжия. А това затруднява тяхната възбрана. Тази обстановка продължава да бъде съществено предизвикателство пред сключването на интернационално съглашение за контролиране на тези AI системи.

Въпреки това някои специалисти смятат, че съществуващите дефиниции са задоволително необятни, с цел да разрешат започването на договаряния. Без освен това да се чака окончателното съглашение по терминологията. Въвеждането на ясна и реалистична формулировка на LAWs ще бъде основен въпрос в бъдещите полемики.

Сред другите въпроси, повдигнати в дебата, е казусът за отговорността за дейностите на самостоятелните оръжия. Етичните алтернативи и правната трудност, свързани с този тип оръжия, усложняват консолидираното им в актуалните военни тактики.

Научните проучвания демонстрират, че изкуственият разсъдък превъзхожда индивида в някои аспекти на бойните дейности. Като да вземем за пример бързата обработка на изображенията и вземането на решения. Въпреки това надеждността на тези системи и тяхната дарба да разпознават вярно задачите остава под въпрос. Особено когато става въпрос за различаване на изображения благодарение на камери.

Докато самостоятелните оръжия могат да реагират дейно на радиочестотни или инфрачервени сигнали, разпознаването на образните изображения може да бъде обект на съществени неточности. Например леки промени в изображенията могат да подведат невронните мрежи, които могат да класифицират погрешно обектите.

Допълнителни етични съображения са свързани с потреблението на самостоятелни оръжия за нахлуване или отбрана. Някои учени и военни предложиха да се резервира правилото „ индивидът в контура “, който гласи, че индивидът би трябвало да удостоверява задачите преди изстрелването. Както и да може да анулира офанзивата, в случай че изискванията на бойното поле се трансформират.

Въпреки това, даже при съществуването на човешки надзор, въпросите за отчетността и прозрачността остават открити. В случай на неточности или непредвидени последствия от самостоятелните оръжия може да е мъчно да се дефинира кой тъкмо носи отговорност.

Дискусиите, стартирани в Организация на обединените нации, и идните договаряния могат да доведат до основаването на работна група, която да изследва в детайли тези въпроси. И вероятно да се стигне до интернационален контракт. Експертите и учените се надяват, че тези ограничения ще оказват помощ за оформянето на по-безопасно и етично бъдеще за потреблението на изкуствения разсъдък във военните технологии.

Източник: kaldata.com

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР