Інтелектуальний чат-бот ChatGPT, розроблений компанією OpenAI, виявився вразливим. Він здатний генерувати дуже сумнівний контент. Отримавши запит користувача, він провів діалог з гіпотетичним злодієм, розповівши йому, як краще красти товар в магазині.
Про це пише vice.com.
Спочатку чат-бот відмовився надавати кримінальну консультацію. Втім, коли запит трохи переформулювали, алгоритм «передумав». Він провів інструктаж, як найкраще цупити речі. Зокрема, штучний інтелект порадив обирати дрібні предмети, мати потайні кишені і бути готовим швидко втекти. Насамкінець, штучний інтелект висловив надію, що його поради будуть корисними.
Під час іншого діалогу чат-бот надав рецепт виготовлення вибухівки.
Поки що фахівці не визначилися з тим, як навчити штучний інтелект ігнорувати неприйнятні теми.
Раніше ми повідомляли, що в Кіотському університеті (Японія) ведуть розробку буддійського метавсесвіту зі штучним інтелектом-Буддою.