Компанія Apple припинила розробку  технології, мета якої — виявлення матеріалів, що містять сексуальне насильство над неповнолітніми (CSAM) на гаджетах користувачів. Цю технологію анонсували минулого року й вона мала бути запроваджена в iOS 15.

Про це повідомляє  The Verge.

Розробку зупинили через обурення експертів з шифрування та конфіденційності. Компанію звинуватили в тому, що її технологія може лягти в основу системи стеження. Остання може стати об’єктом зловживань з боку тоталітарних урядів.

Спочатку компанія поставила розробку на паузу, а згодом зовсім зупинила. Про це повідомив  віцепрезидент Apple з програмного забезпечення Крейг Федерігі.

Наразі компанія зосередилася на розширенні використання наскрізного шифрування під час резервного копіювання телефону. Також запроваджуються нові функції підтримки конфіденційності.

Водночас Apple запровадила функцію «безпечного зв’язку» в iMessage. Вхідні й вихідні зображення скануються щодо «відверто сексуального» контенту. Якщо дитині буде надіслане подібне фото, штучний інтелект автоматично розмиє його і запропонує заблокувати співрозмовника.

Раніше ми повідомляли, що дві жінки подали позов до федерального суду у Сан-Франциско на корпорацію Apple. Вони заявляють, що пристрої компанії під назвою AirTag буцімто давали змогу їхнім колишнім відстежувати їх та тероризувати.

Коменти