Інтелектуальний чат-бот  ChatGPT, розроблений компанією OpenAI, виявився вразливим. Він здатний генерувати дуже сумнівний контент. Отримавши запит користувача, він провів діалог з гіпотетичним злодієм, розповівши йому, як краще красти товар в магазині.

Про це пише vice.com.

Спочатку чат-бот відмовився надавати кримінальну консультацію. Втім, коли запит трохи переформулювали, алгоритм «передумав». Він провів інструктаж, як найкраще цупити речі. Зокрема, штучний інтелект порадив обирати дрібні предмети, мати потайні кишені і бути готовим швидко втекти. Насамкінець, штучний інтелект висловив надію, що його поради будуть корисними.

Під час іншого діалогу чат-бот надав рецепт виготовлення вибухівки.

Поки що фахівці не визначилися з тим, як навчити штучний інтелект ігнорувати неприйнятні теми.

Раніше ми повідомляли, що в Кіотському університеті (Японія) ведуть розробку буддійського метавсесвіту зі штучним інтелектом-Буддою.

Коменти