У серпні Apple оголосила, що буде сканувати дані фотографій в iCloud на предмет сексуального насилля над дітьми. Тема складна, а в Apple її описали абияк, лише заплутавши всіх.

Внаслідок цього ініціативу критикували усі, хто міг: групи розробників писали відкриті листи, готувалися судові позови, а користувачі просто обговорювали нову функцію в соцмережах.

Дослухавшись до критики, Apple повідомила, що відкладає запровадження цієї функції для того, щоб доопрацювати її. При цьому, компанія не пояснює, коли збирається випустити її в реліз і що саме потребує доопрацювання.

Як система мала працювати?

Нумо розберімося, як планувалася робота системи.

У США є такий собі «Національний центр зниклих безвісти й експлуатованих дітей» (NCMEC). Це приватна організація, яка, зокрема, розслідує випадки сексуального насильства над дітьми. У неї ж на серверах є база з хешем зображень, котрі визнані незаконними.

Що таке хеш зображень?

Хеш – це закодована версія зображення, зрозуміла лише машинам. Умовно, хеш фотографії виглядає так: pas6y3I91h24Klsa6hPOSj7, тільки значно довший. Декодувати такий хеш у фотографію назад вже не вийде.

Так от, все що планувалось – перетворювати фотографії в iCloud на аналогічний хеш та звіряти його з базою NCMEC і якщо система виявляла понад 30 збігів, до аналізу мала долучатися людина.

Тобто планувалося, що ані людина, ані машина, не матиме доступу до фотографій. Як це працюватиме в майбутньому – дізнаємось трохи згодом.

Пишу про космос, мистецтво і технології так, щоб це було варто читати. Ведучий та сценарист Tokar.Review.

Коменти