Amazon Alexa — популярний у США голосовий асистент. І завдяки старанням програмістів сильно намагається не поступатися людині, щоб спілкування з ним було максимально природним.

Іноді це заходить надто далеко: були випадки, коли Alexa обговорювала з користувачами секс та інші непристойні речі (незважаючи на вік співрозмовника), а також розкривала конфіденційну інформацію про інших осіб просто посеред розмови.

Цього разу, запитавши поради, клієнт почув, що йому варто вбити своїх названих батьків.

Попри те, що представники Amazon відмовляються обговорювати конкретні випадки, пов’язані з дивацтвами віртуального асистента, вони визнають, що такі помилки трапляються.

Що не так з Amazon Alexa?

Проблема — у способі навчання голосового асистента. Alexa використовує машинне навчання; програма обробляє величезні масиви даних із різних джерел, щоб зрозуміти, як саме розмовляють люди, спілкуючись.

Нещодавно розробники дійшли висновку, що їхній голосовий асистент краще розуміє команди та відповідає на них, якщо має змогу читати коментарі з форуму Reddit. 

Та біда в тім, що Alexa почала грубіянити, адже користувачі цього форуму не вирізняються зразковою поведінкою. Розробники спробували захистити її від читання «небезпечних» гілок із коментарями. Але це не завадило помічниці якось прочитати клієнту замітку про мастурбацію і про те, «як краще це робити».

Amazon вже розробила новий «фільтр», який має не допускати таких ситуацій надалі. Але не варто забувати, що такі фільтри — це фільтри від справжньої людської сутності.

Бо не Alexa вигадала та написала ті кепські речі в коментарях — це зробили ми з вами.

Пишу про космос, мистецтво і технології так, щоб це було варто читати. Ведучий та сценарист Tokar.Review.

Коменти