Розробник нейромережі ChatGPT компанія OpenAI закликає до регулювання «надрозумних» ШІ для того, щоб унеможливити випадкове знищення людства. У компанії підкреслюють необхідність подальшого розвитку меж та налаштувань потужного ШІ й зізнаються, що поки що не мають механізму контролю над ним.

Про це йдеться у матеріалі The Guardian.

Заклик до міжнародного регулятора з вимогою щодо перевірки систем, проведення аудитів та «тестувати на відповідність стандартам безпеки» оприлюднено у записці, що з’явилася на сайті компанії. Її співзасновники Грег Брокман і Ілля Суцкевер разом з  генеральним директором Семом Альтманом закликають до накладання обмежень на ступінь розгортання суперінтелекту з урахуванням безпеки задля зниження «екзистенційного ризику» від подібних систем.

Вони закликають до створення у найближчому майбутньому «певного рівня координації» між компаніями, які займаються передовими дослідженнями у галузі ШІ. Це сприятиме поступовій інтеграції потужніших моделей у суспільство з дотриманням пріоритетів безпеки. Також пропонується створити проєкт під керівництвом уряду чи підписати  колективну угоду щодо здійснення контролю над зростанням можливостей ШІ.

У статті зазначається, що американським Центром безпеки штучного інтелекту (CAIS), що  працює над зменшенням суспільних ризиків від ШІ, перелічені вісім категорій «катастрофічних» та «екзистенційних» ризиків, пов’язаних з розвитком цієї технології.

Нагадаємо, закон про штучний інтелект розглядатимуть депутати Європейського парламенту. Ним пропонується запровадити перші в історії правила прозорості та управління ризиками для технологій зі штучним інтелектом у Європі.

Коменти