Израелската армия може да използва AI, за да избира цели,

...
Израелската армия може да използва AI, за да избира цели,
Коментари Харесай

Guardian: Израелската армия може да използва AI, за да избира цели, свързани с Хамас

Израелската войска може да употребява AI, с цел да избира цели, свързани с Хамас. Израелските отбранителни сили (IDF) биха могли да употребяват технология за изкуствен интелект (AI), с цел да избират цели за въздушни удари измежду жителите на линията Газа. Това оповестява вестник „ Гардиън “, цитирайки изказвания на шестима офицери от израелското разузнаване, с които ерусалимският публицист Ювал Абрахам беседва при изискване за анонимност.

Както се показва в публикация на английско издание, звено 8200 на израелското военно разследващо ръководство през последните години сътвори две системи, които му разрешават да обработва огромни количества информация и да основава база данни за цели за военните. Предполага се, че системата Lavender съхранява записи на жителите на анклава, свързани с радикалната формация Хамас, а системата Gospel изброява здания и структури, които бойците могат да употребяват. При тестванията на логаритмите на Lavender се твърди, че е посочил 90% акуратност при идентифицирането на членове на въоръженото крило на Хамас.

Израелската войска може да употребява AI, с цел да избира цели, свързани с Хамас.

„ Върховата цифра беше 37 000 души, разпознати от системата като евентуални цели “, сподели един от събеседниците на Ейбрахам, „ Но цифрите се трансформират от самото начало, тъй като всичко зависи от критериите, които сте задали за това кой да се счита за войник ​​на Хамас. ”

Някои офицери от разузнаването, които приказваха за това по какъв начин работи системата, загатнаха напън от страна на военните да им дават повече цели за въздушни удари. Беше упоменат и знак, който сякаш дефинира какъв брой цивилни могат да бъдат убити, когато член на Хамас бъде отстранен от израелските военни. Твърди се, че при започване на военната акция, извършена от IDF в линията Газа, гибелта на 15-20 цивилни се е смятала за допустима при ликвидирането на 1 елементарен войник, само че по-късно е решено този брой да бъде понижен.

„ Бяхме пресметнали [цивилни загуби] за пълководец на бригада, за пълководец на батальон и така нататък “, сподели един от източниците. „ Имаше разпореждания, само че те бяха доста хлабави. Ние убихме [командири на Хамас] с десетки [цивилни] смъртни случаи като съпътстващи вреди, от време на време с ниските три числа “, добави различен.

Коментарите на IDF, оповестени от The Guardian, отхвърлят ​​твърденията, че задачите за въздушни удари са определени благодарение на AI.

„ Системата, за която питате, не е система. Това е просто база данни, предопределена за кръстосано препращане на информация от разследващи източници, с цел да се получи настояща информация за бойци терористи. Това не е лист на лица, които са известни да бъдат бойци и законни цели за удари “, означават израелските отбранителни сили.

IDF съобщи, че израелската войска съблюдава интернационалното право, като се насочва към законни военни цели и следва правилото на пропорция. И когато избират цели, те употребяват набор от разнообразни принадлежности, които не включват AI, който се допуска, че дефинира дали човек е войник ​​или не. Също по този начин беше очебийно, че анализаторите на израелското разузнаване правят спомагателни инспекции, с цел да потвърдят, че обещано лице може да бъде отстранено като войник ​​в сходство с вътрешните правила на IDF и интернационалните правни правила.

В същото време, съгласно изказванията на чиновници на израелското разузнаване, употребяващи Lavender, представени в публикацията, в реалност такова удостоверение може да е условност, „ всяка цел лишава 20 секунди “, а човешката роля при вземането на решения е минимална.

Източник – Guardian/Превод:SafeNews

Източник: safenews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР