Компанія Apple припинила розробку технології, мета якої — виявлення матеріалів, що містять сексуальне насильство над неповнолітніми (CSAM) на гаджетах користувачів. Цю технологію анонсували минулого року й вона мала бути запроваджена в iOS 15.
Про це повідомляє The Verge.
Розробку зупинили через обурення експертів з шифрування та конфіденційності. Компанію звинуватили в тому, що її технологія може лягти в основу системи стеження. Остання може стати об’єктом зловживань з боку тоталітарних урядів.
Спочатку компанія поставила розробку на паузу, а згодом зовсім зупинила. Про це повідомив віцепрезидент Apple з програмного забезпечення Крейг Федерігі.
Наразі компанія зосередилася на розширенні використання наскрізного шифрування під час резервного копіювання телефону. Також запроваджуються нові функції підтримки конфіденційності.
Водночас Apple запровадила функцію «безпечного зв’язку» в iMessage. Вхідні й вихідні зображення скануються щодо «відверто сексуального» контенту. Якщо дитині буде надіслане подібне фото, штучний інтелект автоматично розмиє його і запропонує заблокувати співрозмовника.
Раніше ми повідомляли, що дві жінки подали позов до федерального суду у Сан-Франциско на корпорацію Apple. Вони заявляють, що пристрої компанії під назвою AirTag буцімто давали змогу їхнім колишнім відстежувати їх та тероризувати.