Розвиток технології штучного інтелекту може завдати екзистенціальної загрози людству поряд з ризиками, що пов’язані з пандеміями та ядерною війною. Таке побоювання у своїй заяві висловила група відомих лідерів в галузі ШІ, передає The New Yoek Times.

Заяву за 350 підписами фахівців в галузі штучного інтелекту оприлюднено на сайті Центру безпеки штучного інтелекту. Серед підписантів – виконавчий директор OpenAI Сем Альтман, керівник Google DeepMind Деміс Хассабіс, лауреати премії Тьюринга Джеффрі Хінтон і Йошуа Бенгіо, які вважаються хрещеними батьками сучасного ШІ.

Зниження ризику вимирання людства через ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна.

Заява

Як відомо, Центр безпеки штучного інтелекту має на меті зменшення ризиків, що пов’язані зі штучним інтелектом у масштабах суспільства. Ним перелічені вісім категорій «катастрофічних» та «екзистенційних» ризиків, пов’язаних з розвитком цієї технології.

Нагадаємо, розробник нейромережі ChatGPT компанія OpenAI закликає до регулювання «надрозумних» ШІ для того, щоб унеможливити випадкове знищення людства. У компанії підкреслюють необхідність подальшого розвитку меж та налаштувань потужного ШІ й зізнаються, що поки що не мають механізму контролю над ним.

Коменти