Співробітники корейської компанії Samsung «злили» конфіденційні дані чат-боту штучного інтелекту ChatGPT, повідомляє The Economist Korea.
Як стало відомо ЗМІ, незабаром після того, як відділ напівпровідників Samsung дозволив інженерам використання ChatGPT, ті принаймні тричі ділилися з ботом інформацію, що була секретною. Так, один зі співробітників зажадав, щоби чат бот перевірив вихідний код конфіденційної бази даних на наявність помилок, інший попросив оптимізувати конфіденційний код, а третій передав звуковий файл ділової зустрічі у ChatGPT і попросив запротоколювати його.
Як повідомляє видання, Samsung «зробила висновки» і спробувала виправити ситуацію. Для співробітників ввели обмеження довжини запитів до ChatGPT — вона тепер має становити один кілобайт або 1024 символи тексту. Крім того, компанія нині ініціювала проведення розслідування стосовно трьох винних у ситуації, що склалася.
«Підступність» ChatGPT в том, що, згідно зі своєю політикою використання даних, чат-бот використовує всі отримані дані для навчання своїх моделей. Саме тому компанія-розробник неодноразово закликала користувачів не ділитися таємною інформацією з чат-ботом.
Нагадаємо, раніше ми повідомляли, що ChatGPT навчився зламувати Windows.