Лабораторія OpenAI формує команду для вивчення «катастрофічних» ризиків ШІ. Серед ризиків називають навіть ядерні загрози, обман людей та створення шкідливих кодів.

Також називають «хімічні, біологічні, радіологічні та ядерні» загрози, які, на думку OpenAI викликають найбільше занепокоєння.

Команда відстежуватиме прогнозуватиме та захищатиме від майбутніх небезпек систем ШІ.

«Ми віримо, що моделі штучного інтелекту наявні зараз у найдосконаліших варіаціях, мають потенціал принести користь всьому людству. Але вони також створюють дедалі серйозніші ризики… Нам потрібно переконатися, що ми маємо розуміння та інфраструктуру, необхідні для безпеки високопродуктивних систем ШІ», — пише OpenAI.

Нагадаємо, OpenAI запускає ширшу доступність свого останнього генератора тексту в зображення.

Коменти