В ООН зажадали обмежити застосування бойових роботів
Опубликованно 17.09.2018 00:13
Три роки тому більше тисячі вчених, винахідників, фахівців в області робототехніки і штучного інтелекту, підприємців і громадських діячів підписали відкритий лист, що закликає відмовитися від створення повністю автономних бойових систем. Лист було опубліковано на сайті некомерційної організації Future of Life Institute, яка займається дослідженнями в області потенційних загроз для існування людства, пов'язаних з поширенням систем штучного інтелекту.
Автори листа запевняли, що людство стоїть на порозі створення повністю автономних бойових систем, які будуть здатні самостійно приймати рішення про відкриття вогню. У тому випадку, якщо оборонні корпорації зосередяться на розробці подібних систем, нам не уникнути фатальних наслідків. Вчені побоюються, що подібні пристрої неминуче з'являться на чорному ринку і потраплять до рук терористів, диктаторів і екстремістів.
Крім того, бойова техніка з штучним інтелектом ідеальна для виконання замовлених убивств, терористичних актів і операцій, спрямованих на дестабілізацію суспільства та руйнування конституційного ладу держави. На відміну, приміром, від ядерної зброї, створення бойових роботів незрівнянно простіше з технічної точки зору, а матеріали для їх виготовлення досить дешеві і широко доступні.
Системами смертельного автономного зброї (Lethal Autonomous Weapons Systems) називають автономних бойових роботів, які можуть самостійно шукати і знищувати цілі на основі запрограмованих обмежень та описів. Група урядових експертів ООН категорично вважає, що вони повинні залишатися під контролем людей, так як відповідальність за застосування зброї неможливо покласти на роботів.
Під керівництвом посла Індії і голови групи Амандипа Сінгха Гілла експерти розробили десять керівних принципів застосування смертельного автономного зброї. Насамперед, фахівці підкреслили, що міжнародне гуманітарне право продовжує повністю застосовуватися щодо всіх систем озброєнь, включаючи потенційну розробку і використання автономного зброї.
Експерти ООН вимагають зобов'язати держави вирішити, за яких обставин застосування бойових роботів неприйнятно. При цьому жорсткий контроль за смертельним автономним зброєю не повинен заважати розвитку цивільних автономних технологій. У засіданні взяли участь експерти з 125 країн, а також представники міжнародних організацій, академічних і промислових кіл і громадянського суспільства.
Нагадаємо, раніше група з 116 експертів в області штучного інтелекту (ШІ) і робототехніки на чолі з Илоном Маском направили в ООН лист з вимогою заборонити розробку і використання смертоносного автономного зброї.
Категория: Новости