Будьмо відвертими: ніхто й ніколи не читає користувацьку угоду, а всі листи, що починаються з «прочитайте уважно: ми оновили угоду», опиняються в смітнику швидше за одноразовий пакет з «АТБ».

Причина проста: ніхто не хоче гаяти час на читання нудної юридичної інформації. Саме на це й розраховують сервіси – щоб жоден адекватний читач не взявся проглядати документ.

Найважливіше зазвичай пишуть дрібним шрифтом десь посередині, куди ніхто й ніколи не доходить. 

Штучний інтелект вивчить угоди сам

Звинувачувати користувача в такому підході аж ніяк не можна, адже якщо серйозно братися за читання всіх користувацьких угод, то на використання власне сервісу часу вже й не стане.

Тож з’явився сервіс, який може «читати» ці угоди за нас, видаючи користувачеві хрестоматійний переказ на три абзаци. Так і сталося: новий інструмент «Guard» обіцяє вивчити політику конфіденційності вказаної програми чи сайту.

Для аналізу текстів програма користується надбаннями штучного інтелекту. Після аналізу кожному реченню ставиться оцінка важливості, в результаті програма покаже лише найважливіші частини.

Наразі Guard працює безкоштовно, «читаючи» тексти для:

  • Twitter;
  • Aliexpress;
  • Instagram;
  • Tinder;
  • Whatsapp;
  • Telegram;
  • Spotify;
  • Reddit;
  • Shazam;
  • Duolingo та ще з десятка сервісів…

Розробники збирають пропозиції щодо нових сервісів, і перше, що спадає на думку, це Facebook.

На сьогодні працює бета-версія додатку, вона недоступна широкому загалу, але можна зареєструватися, щоб отримати доступ тут.

Програма вже вміє надавати доволі корисну інформацію: скільки загроз виявлено в угоді користувача та наскільки значні наслідки вони можуть мати. Тут таки можна побачити, скільки скандалів та конфліктів щодо конфіденційності вже є навколо програми. На основі цього додаткам виставляються оцінки. Наприклад, Twitter має оцінку 15% та оцінку «D» (що б це не означало).

Додаток просить ділитися ним із друзями, й не лише заради хайпу. Штучний інтелект покращує свої алгоритми, а друзі зберігають анонімність.

ШІ теж треба навчати

Додаток розробив Хаві Рамірез із Мадрида. Він називає свій доробок науковим експериментом, мета якого – навчити штучний інтелект думати над конфіденційністю, як це роблять люди.

Для цього добровольцям пропонується пройти кілька тестів, де немає неправильних відповідей. Програма попросить проглянути два шматки різних текстів і визначити, який з них безпечніший для конфіденційності.

Ось приклад:

Використання автоматизованих систем для отримання великої кількості даних з Games Press без отримання попередньої згоди від нас заборонено

Варіант А

Надаючи нам свої дані, ви даєте згоду на передачу таких даних

Варіант Б

На вигляд варіант A безпечніший, його й виберемо. Але деякі питання набагато складніші…

Після кількох відповідей програма покаже, наскільки ваші результати відрізняються від середніх значень.

Окреме задоволення можна отримати від того,  що ви будете одним з перших людей, які навчають штучний інтелект конфіденційності. Допоки нам є чому його навчати.

Коменти