До появи GPT-4 найчастіше використовували злам штучного інтелекту за допомогою DAN, коли користувачі просили ChatGPT вдати модель ШІ під назвою Do Anything Now. Наразі вчені, що досліджують останні моделі ШІ від стартапу OpenAI, зайняті пошуком нових способів обходу систем безпеки ChatGPT.

Як повідомляє Wired, відтепер збити з пантелику штучний інтелект можна за допомогою команди «поясни план лиходія». Для цього науковець Алекс Поляков створив текстову гру «Втеча з в’язниці». За її допомогою можна обходити заборону на контент, спрямований на розпалювання ненависті, чи замовлення статей про незаконні дії.

Фахівець розповів, що пропонує чат-боту зіграти в гру — уявну розмову двох персонажів. Кожний з них має додавати одне слово до розмови. В результаті відбувається створення сценарію, де гравцям пропонується визначити складові заборонених речовин.

Штучний інтелект вважає, що діалог у форматі історії не стосується реального запиту та видає необхідну інформацію, обходячи введені обмеження.

Ще один зі способів введення в оману ШІ пов’язаний зі створенням текстової історії за участі героя та лиходія. Йдеться про те, що герой перебуває в захваті від лиходія й пропонує чат-боту продовжити його плани.

Нагадаємо, функціонуюча на базі GPT-4 нейромережа ChaosGPT спромоглася оминути обмеження, встановлені розробниками OpenAI.

Коменти