Ми вже чимало писали й про принципи роботи штучного інтелекту, і про етичні напрацювання у цій галузі. ШІ створював музику, допомагав досліджувати космос і навіть спілкувався з тваринами їхньою мовою. Настав час вбивати. 😈 🤖

Принаймні, так вважає Комітет з юридичних питань Європарламенту, що опублікував свою останню доповідь. У ній йдеться про заборону штучному інтелекту самостійно приймати рішення про застосування зброї. На самокеровані бойові системи у збройних конфліктах накладають табу. Вже бачимо, як РФ слухняно відводить свої війська з тимчасово окупованих територій.

Питання стало руба, оскільки активні розробки в галузі ШІ призвели до того, що технологію починають впроваджувати й у галузі озброєння та військової техніки. Наприклад, кипить робота над безпілотниками та дронами, які самостійно вирішуватимуть «пріоритетність» тієї чи іншої жертви.

Деякі розробки стосуються механізмів машинного навчання, здатних розшифровувати захищені канали радіозв’язку.

Коротко кажучи, в майбутньому роль ШІ у військово-оборонній сфері лише посилюватиметься. А це своєю чергою викликає чимало питань етичного характеру. Як-от: наскільки правомірно застосовувати у бойових діях самокеровані системи і як виміряти рівень загрози для мирного населення? Хто гарантуватиме, що система обере саме ворожу одиницю, а не мирного жителя? І хто відповідатиме, якщо система помилиться?

Отже, комітет Європарламенту дійшов висновку, що автономні системи (себто ШІ) можна використовувати лише тоді, коли те, чи відкривати вогонь, вирішує людина, а не алгоритм. Такі системи вважають крайнім заходом, і виключно за людиною залишається рішення про відкриття вогню, про вибір між життям та смертю.

Відповідно, такі системи завжди мають давати оператору змогу коригування та зупинки їхньої роботи у разі надзвичайних ситуацій чи несподіванок. При цьому, солдати мусять дотримуватися умов, за яких (у разі необхідності) можна ідентифікувати керівника автономної бойової системи.

Центр кібербезпеки Морпіхів США у Fort Meade. Джерело: Міноборони США, Jacob Osborne

Враховуючи вищесказане, доречно буде згадати п’ять етичних принципів ШІ на війні, що їх сформулював Пентагон на початку 2020:

На початку 2020 року американське міністерство оборони сформулювало п’ять етичних принципів використання систем штучного інтелекту у військових цілях:

  1. Відповідальність. Військові мусять вкрай уважно оцінювати дії ШІ, на 100% відповідаючи за його розгортання і використання.
  2. Неупередженість. Міноборони США має мінімізувати будь-які ризики у відхиленнях алгоритмів.
  3. Прозорість. Збройні системи ШІ повинні розроблятися у такий спосіб, аби їхні оператори чітко розуміли принципи роботи, проходили випробування й отримували відповідну кваліфікацію.
  4. Надійність. Зона можливого і неможливого таких систем мусить бути юридично чітко сформульована. Безпека має перевірятися регулярно, як на атомній станції.
  5. Підпорядкування. Системи не мають виходити за межі наказу, але військові повинні мати можливість зупинити чи вивести з бою ШІ, в якого помітять відхилення у роботі.
Сьогодні ж військові США не ризикують споряджати своє стратегічне озброєння автономними системами, адже за запуски балістичних ракет та іншої летальної зброї відповідають виключно люди.

Підтримайте Токар
50 грн.

10% середньостатистичної статті,
або ж пів дня роботи нашого сервера

Підтримати
Ось вона, нагода стати причетним до розвитку незалежних медіа!
Коменти