У серпні Apple оголосила, що буде сканувати дані фотографій в iCloud на предмет сексуального насилля над дітьми. Тема складна, а в Apple її описали абияк, лише заплутавши всіх.
Внаслідок цього ініціативу критикували усі, хто міг: групи розробників писали відкриті листи, готувалися судові позови, а користувачі просто обговорювали нову функцію в соцмережах.
Дослухавшись до критики, Apple повідомила, що відкладає запровадження цієї функції для того, щоб доопрацювати її. При цьому, компанія не пояснює, коли збирається випустити її в реліз і що саме потребує доопрацювання.
Як система мала працювати?
Нумо розберімося, як планувалася робота системи.
У США є такий собі «Національний центр зниклих безвісти й експлуатованих дітей» (NCMEC). Це приватна організація, яка, зокрема, розслідує випадки сексуального насильства над дітьми. У неї ж на серверах є база з хешем зображень, котрі визнані незаконними.
Що таке хеш зображень?
Хеш – це закодована версія зображення, зрозуміла лише машинам. Умовно, хеш фотографії виглядає так: pas6y3I91h24Klsa6hPOSj7, тільки значно довший. Декодувати такий хеш у фотографію назад вже не вийде.
Так от, все що планувалось – перетворювати фотографії в iCloud на аналогічний хеш та звіряти його з базою NCMEC і якщо система виявляла понад 30 збігів, до аналізу мала долучатися людина.
Тобто планувалося, що ані людина, ані машина, не матиме доступу до фотографій. Як це працюватиме в майбутньому – дізнаємось трохи згодом.