Діти та підлітки щораз частіше використовують інструменти генеративного ШІ не лише для виконання домашніх завдань чи написання курсових робіт, а й для розв’язання особистих проблем, як-от боротьба зі стресом, конфлікти з друзями, сімейні сварки. Саме з огляду на юну аудиторію, її потреби, запити та безпекові ризики, OpenAI й створила нову команду фахівців, які працюватимуть з групами, відповідальними за політику платформи, юридичними і дослідницькими групами компанії, а також із зовнішніми партнерами для керування «процесами, інцидентами і перевірками» неповнолітніх користувачів.

До нової команди, зокрема, увійдуть фахівці з безпеки дітей, які відповідатимуть за застосування політики OpenAI щодо створюваного ШІ вмісту, і працюватимуть над перевірками, пов’язаними з «конфіденційним» контентом. Компанія докладає чимало зусиль для дотримання законів про захист конфіденційності дітей в інтернеті, і чинні умови користування ChatGPT для підлітків від 13 до 18 років вимагають згоди батьків, а дітям до 13 років користуватися продуктами OpenAI заборонено. Однак не секрет, що юнацтво досить легко обходить ці обмеження, і сама компанія визнає, що часом результати, які видають її інструменти, підходять не для всіх вікових груп.

Дані британського Центру інтернет-безпеки свідчать, що 53 % дітей бачили, як їхні ровесники використовують ШІ у негативному ключі – створюючи правдоподібну брехню, або інформацію чи картинки, які можуть когось засмутити. А з огляду на те, що OpenAI не готова відмовлятися від намірів впровадження ШІ-технологій у навчальні процеси в школах та коледжах, вона змушена приділяти увагу питанням захисту дітей та їхніх даних у процесі користування ШІ.          

Літературний редактор.

Коменти