Нещодавно у журналі Nature членкиня Міжнародного комітету контролю за озброєнням роботів опублікувала резонансну статтю. У ній вона закликає стати на заваді розвитку нової холодної війни, яку, на її думку, провокує застосування штучного інтелекту в мілітарних галузях. Ми стисло оглянули головне з її публікації.
Довіряти не можна зупинити
Сполучені Штати протягом останніх років намагаються стати авангардом регуляції ШІ у світі. 2019 року Конгрес утворив Комісію нацбезпеки зі штучного інтелекту (далі NSCAI), яка рекомендувала державі пришвидшити розвиток ШІ, зокрема у воєнній галузі. Мотивація — зберегти лідерство і конкурентоздатність у перегонах з Росією та Китаєм.
Водночас Єврокомісія цього року публікує міжнародну правову базу з етичності та безпечності штучного інтелекту. У таких документах завжди йдеться про те, що військовий ШІ не має заміняти людину в сенсі ухвалення рішень і мусить завжди моніторитись кимось живим. Але рекомендації NSCAI не зовсім корелюють з таким світоглядом. Комісія з нацбезпеки, навпаки, радить «інтегрувати ШІ у всі аспекти ведення бойових дій».
Різке зростання воєнного потенціалу ШІ однозначно призведе до зниження рівня міжнародної безпеки у світі. У світі, де і так найбільша загроза — це політична, економічна чи планетарна нестабільність. Наразі супроти NSCAI виступають понад 4500 дослідників у галузі ШІ та робототехніки, які вважають що ШІ не має ухвалювати рішення про вбивство людини. Дослідники спираються на відповідні постанови ЄС та Європарламенту.
Кажучи глобально, авторка публікації вважає, що NSCAI відроджує катастрофічні ідеї часів холодної війни. У ті часи бажання перемогти у перегонах озброєнь призвело до накопичення 70 000 одиниць ядерної зброї (сьогодні глобальний арсенал становить майже 13 100 боєголовок). Це дається країнам в копійчину: США щороку витрачають 70 мільярдів доларів на утримання та обслуговування ядерної зброї в усьому світі. Враховуючи інші катаклізми — від кліматичних катастроф до ransomware-атак — інвестувати мільярди в «ядерні справи» не дуже раціонально.
Сама NSCAI, очевидно, не вважає міжнародне співробітництво пріоритетом. Ба більше, комісія виступає проти заборони на автономну зброю. Ключовий аргумент: не можна довіряти іншим країнам, типу Росії чи Китаю, у питаннях дотримання правил. Проте нові перегони у мілітаризації ШІ однозначно дестабілізують світ. На відміну від ядерної боєголовки, шанси запустити розвідувальний чи бойовий дрон на цивільну територію значно вищі.
Не можна сказати, що NSCAI повністю ігнорує міжнародні конвенції. Комісія просто закликає розробляти нові стандарти, які мають бути належним чином спроєктовані та протестовані. З одного боку, тоді рішення про вбивство «потраплятиме» у межі конвенцій. З іншого, передбачити та гарантувати належну роботу алгоритмів машинного навчання просто неможливо. Системи навчаються у реальному світі, який геть відрізняється від лабораторного.
Фактично, диспут зводиться до того, чи варто країнам співпрацювати у галузі воєнних розробок, чи боротися за лідерство кожній окремо.
Одне ми знаємо напевне — повсюдна мілітаризація не завжди захищає людей та держави. Зате це завжди велетенські ресурси та зміна фокусу суспільної уваги. Для тих самих Сполучених Штатів кліматичні катастрофи є ледь не головною проблемою, яка змушує мільйони людей переміщуватися всією країною. Китай також продемонстрував свою вразливість перед глобальним потеплінням.
Ми не знаємо, який напрям оберуть Штати щодо нової холодної війни та інвестицій у воєнізацію ШІ. Однак розпочати всесвітню конфронтацію роботів одразу ж після коронавірусної кризи було б, щонайменш, іронічно.
Читайте також:
Поки членкиня Міжнародного комітету контролю за озброєнням роботів пише статті та закликає дотримуватись якихось … (підставити своє) цінностей