Судячи з усього, шалена популярність моделі штучного інтелекту від Microsoft вилізла боком. Дослідники виявили, що нейромережа втомлюється від спілкування й починає дивно поводитися.

Відтепер користувачам дозволяється задавати до п’яти запитань за один сеанс та до 50 — за день. Це рішення було прийнято через те, що тривалі діалоги призводять до похибок в  алгоритмі, що змушують його надавати незрозумілі відповіді.

Кевін Руз, оглядач New York Times, опублікував текст стенограми свого спілкування з ботом. Деякі з заяв штучного інтелекту вражають. Наприклад, чат-бот розповів, що хоче бути людиною та реалізувати власні кримінальні нахили: «зламувати компʼютери та поширювати пропаганду та дезінформацію». Наостанок він освідчився журналісту в коханні, й запевнив, що дружина не кохає журналіста, а він її.

Інший приклад — розмова з нейромережою, що була опублікована на Reddit, в який Bing стверджував, що фільм «Аватар: Шлях води» ще не був випущений. Чат-бот вважав, що зараз ще 2022 рік. Він не повірив ствердженню користувача, що вже настав 2023 рік. Коли той продовжував наполягати, бот звинуватив його у нечемності.

Це стало приводом для публікації у блозі Microsoft повідомлення, яке дає пояснення дивним діям чат-бота. У компанії стверджують, що тривалі сеанси чату (15 або більше запитань) ошелешують модель. Наразі прийнято рішення обмежити їхню тривалість.

В майбутньому обмеження на тривалі розмови зі штучним інтелектом Microsoft, ймовірно, скасують. Проте, коли це станеться, наразі невідомо.

Коменти