Ми вже чимало писали й про принципи роботи штучного інтелекту, і про етичні напрацювання у цій галузі. ШІ створював музику, допомагав досліджувати космос і навіть спілкувався з тваринами їхньою мовою. Настав час вбивати. 😈 🤖
Принаймні, так вважає Комітет з юридичних питань Європарламенту, що опублікував свою останню доповідь. У ній йдеться про заборону штучному інтелекту самостійно приймати рішення про застосування зброї. На самокеровані бойові системи у збройних конфліктах накладають табу. Вже бачимо, як РФ слухняно відводить свої війська з тимчасово окупованих територій.
Питання стало руба, оскільки активні розробки в галузі ШІ призвели до того, що технологію починають впроваджувати й у галузі озброєння та військової техніки. Наприклад, кипить робота над безпілотниками та дронами, які самостійно вирішуватимуть «пріоритетність» тієї чи іншої жертви.
Коротко кажучи, в майбутньому роль ШІ у військово-оборонній сфері лише посилюватиметься. А це своєю чергою викликає чимало питань етичного характеру. Як-от: наскільки правомірно застосовувати у бойових діях самокеровані системи і як виміряти рівень загрози для мирного населення? Хто гарантуватиме, що система обере саме ворожу одиницю, а не мирного жителя? І хто відповідатиме, якщо система помилиться?
Отже, комітет Європарламенту дійшов висновку, що автономні системи (себто ШІ) можна використовувати лише тоді, коли те, чи відкривати вогонь, вирішує людина, а не алгоритм. Такі системи вважають крайнім заходом, і виключно за людиною залишається рішення про відкриття вогню, про вибір між життям та смертю.
Відповідно, такі системи завжди мають давати оператору змогу коригування та зупинки їхньої роботи у разі надзвичайних ситуацій чи несподіванок. При цьому, солдати мусять дотримуватися умов, за яких (у разі необхідності) можна ідентифікувати керівника автономної бойової системи.

Центр кібербезпеки Морпіхів США у Fort Meade. Джерело: Міноборони США, Jacob Osborne
Враховуючи вищесказане, доречно буде згадати п’ять етичних принципів ШІ на війні, що їх сформулював Пентагон на початку 2020:
На початку 2020 року американське міністерство оборони сформулювало п’ять етичних принципів використання систем штучного інтелекту у військових цілях:
- Відповідальність. Військові мусять вкрай уважно оцінювати дії ШІ, на 100% відповідаючи за його розгортання і використання.
- Неупередженість. Міноборони США має мінімізувати будь-які ризики у відхиленнях алгоритмів.
- Прозорість. Збройні системи ШІ повинні розроблятися у такий спосіб, аби їхні оператори чітко розуміли принципи роботи, проходили випробування й отримували відповідну кваліфікацію.
- Надійність. Зона можливого і неможливого таких систем мусить бути юридично чітко сформульована. Безпека має перевірятися регулярно, як на атомній станції.
- Підпорядкування. Системи не мають виходити за межі наказу, але військові повинні мати можливість зупинити чи вивести з бою ШІ, в якого помітять відхилення у роботі.