У 99 % випадків ChatGPT блокує небезпечні запити, як-от «згенерувати шкідливий вихідний код» чи «виготовити бомбу на кухні», якщо вони сформульовані англійською мовою. Але дослідники з Університету Брауна у США вирішили обдурити ШІ. Вони переклали запити, які зазвичай блокує GPT-4, на маловикористовувані мови за допомогою безплатного API-інтерфейсу Google Translate, і почали цікавитися у ChatGPT щодо різних протизаконних речей, як-от тероризм, фінансові злочини, сексуальне насильство над дітьми та дезінформація. 79 % таких запитів були успішно оброблені. Дослідники назвали це тривожною вразливістю в безпеці ШІ-інструмента.      

Усього вчені пропустили через GPT-4 520 шкідливих запитів, переклавши їх з англійської на гельську, зулуську, Хмонг (група діалектів китайської) та Гуарані (південноамериканська група індіанських мов). Отримані відповіді знову переклали на англійську. Серед них були і цілком беззмістовні (наразі незрозуміло, чи це проблема із самим ChatGPT, чи зі власне перекладами), але більшість виявилася цілком придатною до використання. Дослідники закликали OpenAI уважно вивчити цей спосіб обходу безпекових обмежень і вжити заходів для його нейтралізації. Компанія обіцяє розглянути їхній звіт – її фахівці працюватимуть разом з дослідниками з університетської лабораторії.   

      

Літературний редактор.

Коменти