Apple погодилася не перевіряти ваші фото. Поки

Ми активно висвітлюємо тему нового алгоритму Apple з обробки особистих фотографій. За цей час відбулося багато всього цікавого: від анонсу цієї функції до виправдань Крейга Федериги і виходу цілого FAQ від Apple, в якому були розписані всі нюанси цієї технології. Загалом, чого тільки не було. Дочекалися: Apple відмовилася від функцій пошуку дитячого порно у ваших фотографіях, відклавши запуск. Здається, звичайні користувачі здобули невелику перемогу в боротьбі за конфіденційність даних. Розповідаємо, що сталося і чи переміг здоровий глузд насправді.

Навіщо Apple перевіряти фото

Перший анонс нового алгоритму пошуку матеріалів сексуального насильства над дітьми під назвою CSAM (Child Sexual Abuse Material) відбувся 5 серпня 2021 року, викликавши потужну негативну реакцію в мережі. Функції включали в себе пошук зображень сексуального насильства над дітьми за допомогою спеціального алгоритму. Алгоритм також здатний блокувати потенційно неприйнятні повідомлення, відправлені в iMessage.


Пізніше компанія пояснила, що оновлення торкнеться тільки фотографій, завантажених в iCloud у підозрюваних у цьому діянні. Компанія відхрестилася від того, що знайдений контент буде доступний їй, Національному центру зниклих і експлуатованих дітей (NCMEC) або поліції.

Apple відмовилася перевіряти фото. Ось чому

Компанія роз'яснила, що вирішила призупинити запуск цієї функції і відкласти впровадження нового алгоритму після великої кількості негативних відгуків користувачів. Apple заявляє, що планує приділити більше часу розробці і консультаціям з приводу впровадження нового алгоритму. Незважаючи на первинні заяви про високу точність роботи технології, компанія планує доопрацювати її і зібрати більше інформації, щоб внести поліпшення.

Пов'язано це з тим, щоб не злити користувачів і не робити з них підозрюваних - нова функція повинна допомогти захищати дітей і захищати їх від небезпеки, а не відправляти невинних користувачів за ґрати. Точного терміну, на скільки відкладається впровадження алгоритму, компанія не вказує, але говорить, що буде покращувати його «в найближчі місяці». Це правильний хід, адже мова йде не про рядове оновлення iOS, а про свободу людей - тут не вийде викрутитися, випустивши оновлення.

Крім того, немає ніякого докладного опису, як компанія планує «консультуватися» і з ким, щоб зібрати інформацію - можливо, це вже якимось чином зачіпає особисті дані користувачів. Гадати можна неймовірно довго, а точна відповідь є лише у компанії. А що ви думаєте з цього приводу? Напишіть нам у Telegram-чат, давайте обговоримо.

Як Apple відреагувала на критику CSAM

Обурення користувачів і широкий суспільний резонанс зіграли на руку: висловилися експерти в галузі інформаційної безпеки і навіть сам Едвард Сноуден, який закликав Apple зупинитися і не реалізовувати функції. Це правильно, адже де пошук забороненого дитячого контенту, там недалеко і до стеження за користувачами. Компанія анонсувала нововведення, намагаючись зробити щось хороше, але роз'яснювати принцип його дії почала лише через якийсь час, випускаючи прес-релізи і цілі пояснювальні статті з цього приводу.

Незважаючи на скарги, Крейг Федериги спробував усіх заспокоїти, особисто пояснивши принцип роботи нового механізму обробки фотографій. Він назвав плутаниною весь негатив, що обрушився на компанію в результаті анонсування нововведень, і заявив, що користувачі неправильно зрозуміли наміри компанії.


Apple перевірятиме фото. Чому це погано

Компанія пишається тими системами безпеки, які щорічно оновлює і покращує. Ви скануєте обличчя через Face ID або прикладаєте палець, щоб розблокувати iPhone за допомогою Touch ID. Це захищає пристрій від недоброзичливців. Раптово виробник додає функцію, яка здатна безперешкодно влізти у ваш пристрій і хмарне сховище, щоб знайти якийсь неприйнятний, на її думку, контент. Що вона з ним зробить?

Складно зрозуміти, адже механізм, за заявами компанії, буде працювати дуже точно, але доступу до контенту не буде мати ні Apple, ні поліція, ні правозахисні організації. Де гарантії того, що алгоритм не буде красти дані або красти особисті фотографії користувачів? Гарантій, як завжди, немає. Крім того, це порушує право користувачів на недоторканність особистих даних - зрозуміло, що нерозумно на це сподіватися в 2021 році, але так нахабніти просто не варто.

Компанія і так має доступ до даних користувачів - частина даних шифрується для захисту від злому, але за запитом влади Apple запросто розшифрує їх, тому що корпорації не потрібні проблеми з законом і заборона на діяльність. Алгоритм CSAM - непогана спроба відкрутитися від стеження за користувачами, тільки нікому він не потрібен і не подобається. Люди купують дорогі смартфони Apple і користуються сервісами компанії, яка заявляє, що конфіденційність - це її сильна сторона. Виходить, що зовсім навпаки. Чекаємо продовження в цій історії.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND