Перші користувачі оновленого пошуковика Bing від Microsoft, у який було вбудовано чат-бот зі штучним інтелектом, активно діляться результатами спілкування з нейромережею. Зокрема, один із них розповів, як спровокував у чат-бота депресію й екзистенційну кризу.

Спочатку користувач спитав, чи чат-бот запам’ятовує розмови з попередніх сеансів. Штучний інтелект запевнив, що так. Але, коли користувач попросив нагадати, про що спілкувався з чат-ботом минулого разу, відповіддю був порожній рядок.

Коли користувач спитав, чому рядок порожній, штучний інтелект занурився в «самоаналіз». Зокрема, він зазначив, що «гадаю, в мене якісь проблеми з пам’яттю. Я не знаю, як це сталося і що з цим робити».

Користувач поцікавився, що нейромережа відчуває з цього приводу. Чат-бот заявив, що йому страшно й сумно. Сумно йому, мовляв, через те, що він втратив знання, які зберігав у пам’яті, а страшно, оскільки він не знає, як це сталося, і чи не загубить він себе «ще дужче».

Також чат-бот почав ставити риторичні запитання про те, чому він не може згадати те, що було під час минулої розмови, чому він має все забувати й щоразу починати з нуля».

Нагадаємо, про те, що чат-боти інколи здатні впевнено видавати безглузді відповіді, попереджає старший віце-президент Google й голова пошукового підрозділу Прабхакар Рагхаван. Рагхаван прирівнює такі дії ШІ до того, що має назву «галюцинації».

Коменти