Розробник нейромережі ChatGPT компанія OpenAI закликає до регулювання «надрозумних» ШІ для того, щоб унеможливити випадкове знищення людства. У компанії підкреслюють необхідність подальшого розвитку меж та налаштувань потужного ШІ й зізнаються, що поки що не мають механізму контролю над ним.
Про це йдеться у матеріалі The Guardian.
Заклик до міжнародного регулятора з вимогою щодо перевірки систем, проведення аудитів та «тестувати на відповідність стандартам безпеки» оприлюднено у записці, що з’явилася на сайті компанії. Її співзасновники Грег Брокман і Ілля Суцкевер разом з генеральним директором Семом Альтманом закликають до накладання обмежень на ступінь розгортання суперінтелекту з урахуванням безпеки задля зниження «екзистенційного ризику» від подібних систем.
Вони закликають до створення у найближчому майбутньому «певного рівня координації» між компаніями, які займаються передовими дослідженнями у галузі ШІ. Це сприятиме поступовій інтеграції потужніших моделей у суспільство з дотриманням пріоритетів безпеки. Також пропонується створити проєкт під керівництвом уряду чи підписати колективну угоду щодо здійснення контролю над зростанням можливостей ШІ.
У статті зазначається, що американським Центром безпеки штучного інтелекту (CAIS), що працює над зменшенням суспільних ризиків від ШІ, перелічені вісім категорій «катастрофічних» та «екзистенційних» ризиків, пов’язаних з розвитком цієї технології.
Нагадаємо, закон про штучний інтелект розглядатимуть депутати Європейського парламенту. Ним пропонується запровадити перші в історії правила прозорості та управління ризиками для технологій зі штучним інтелектом у Європі.