Роботи-вбивці — це вже не фантастика, а реальність

Роботи-вбивці — це вже не фантастика, а реальність


Роботы-убийцы — это уже не фантастика, а реальность

Варто визнати, що робототехніка за останні роки зайшла досить далеко. Зброя, створюване оборонними компаніями, стає розумнішою, до нього підключають системи штучного інтелекту, роботи знаходять повну автономність і так далі. До кіборгів-вбивць нам ще далеко, але роботи вже цілком можуть завдати шкоди людині, повідомляється в доповіді, опублікованій в журналі Quartz.


Роботы-убийцы — это уже не фантастика, а реальность
Роботи-вбивці призначені для прийняття рішень про позбавлення життя або збереження її самостійно, без людського контролю. Цей тривожний ознака фахівці РАХ назвали «третьою революцією у війні» після винаходу пороху і атомної бомби.

Як активісти, так і держави закликають до створення зводу міжнародних правил, що регулюють створення такої зброї, або навіть прямої заборони на його исплозование. Але деякі країни, зокрема США, Китай і Російська Федерація досі не вжили заходів з даного питання.

Фахівці РАХ виявили щонайменше 30 світових виробників зброї, які не мають політики проти розробки вищеозначених видів систем озброєння. В їх число входять американські оборонні фірми Lockheed Martin, Boeing і Raytheon, китайські державні конгломерати AVIC і CASC, ізраїльські фірми IAI, Elbit і Rafael, російський Ростех і турецька STM.

Доти, доки держави не домовилися колективно створити якийсь режим регулювання або, в ідеалі, превентивний заборону, є ймовірність, що компанії будуть розробляти і виробляти, а в кінцевому підсумку і використовувати зброю, яка не має достатнього людського контролю. — сказав автор доповіді Френк Сліпер.

Активісти не вважають при цьому, що військове застосування тієї чи іншої системи штучного інтелекту є проблемою. Проблема саме в тому, що такі системи можуть стати непідконтрольні людині. А яка думка маєте ви з даного питання? Висловіться в коментарях і в нашому чаті Телеграм.

Приміром, американські військові вже розробляють гармату з штучним інтелектом, яка самостійно вибирати і вражати цілі, а також танки з штучним інтелектом, які зможуть ідентифікувати і вражати цілі в три рази швидше, ніж будь-яка людина». А STM, турецька державна оборонна компанія, вже щосили виробляє оснащеного штучним інтелектом робота під назвою KARGU.

У комплекті з можливостями розпізнавання осіб, KARGU може автономно вибирати і атакувати цілі, використовуючи координати, попередньо вибрані оператором. Повідомляється, що Туреччина має намір використовувати KARGU в Сирії.

PAX найбільше стурбовані потенційним розгортанням ІЇ у наступальних системах, які будуть вибирати і атакувати цілі самостійно, без людського нагляду. Група задається питанням про те, яким чином ця зброя буде проводити розходження між військовими і цивільними особами. У того ж, юристи досі не знають, хто буде нести відповідальність, якщо автономне зброю порушить міжнародне право.

При цьому на відміну від Google чи Amazon, які зіткнулися як з публічним, так і з внутрішньою реакцією на свою роботу над військовими системами, компанії начебто Lockheed Martin і Raytheon, мають справи виключно з військовими, тому вони стикаються з мінімальною реакцією з боку партнёрів, а також з боку звичайних людей, так як більшість розробок до певного моменту залишаються засекреченими.

У той час як розвиток автономного зброї триває, РАХ вважають, що ще є можливість запобігти можливій катастрофі. Група заявила, що компанії-виробники можуть зіграти вирішальну роль в цьому, і повинні виступити проти виробництва повністю автономного летального зброї.

Що стосується систем озброєння з підтримкою штучного інтелекту, то представники РАХ заявлют, що оборонні фірми повинні слідувати нікому звід правил, який ще належить розробити. Але повністю відмовлятися від ІЇ ніхто не закликає.

Автор: v_stranger
Предыдущий материал

СМИ: Сирийская армия отбила у террористов две деревни в Идлибе

Следующий материал

Викрадення Луценка та Вербицького: адвокати відмовились від апеляційної скарги

Коментарии (0)