Алгоритмичната война поражда нови морални опасности
Един от най-лошите ни кошмари за изкуствения разсъдък е, че той ще разреши на роботи убийци да дебнат бойното поле, разпределяйки алгоритмично избрани гибел и заличаване. Но действителният свят е доста по-объркан от комиксите. Както демонстрира бомбардирането на Газа от Израел, може би се движим към по-невидими и подли форми на автоматизирано взимане на решения във войната.
Смразяващ отчет, оповестен предходната седмица от израелското онлайн списание +972, акцентира мощното разчитане на Израелските отбранителни сили при започване на войната на система за всеобщо генериране на цели, задействана от AI, известна като Lavender, която маркира 37 000 поданици на Газа като обвинени бойци на Хамас. В резултат на това мнозина бяха бомбардирани в домовете си, постоянно убивайки и фамилиите им.
Недоволни източници от израелското разузнаване, интервюирани от +972, споделиха, че системата има подобен % неточности от 10 %, като неправилно разпознава някои цели за ликвидиране. Те също по този начин...
Прочетете целия текст »




