(Оновлено): Apple перевірятиме фото на пристроях заради захисту дітей

2 хв. читання

(9.08): Опублікований відкритий лист, де розробники, вчені, експерти з кібербезпеки, криптографи та інші користувачі закликають Apple відмовитись від своїх планів й не сканувати пристрої. На GitHub вже зібрали понад 6300 підписів, зокрема від Едварда Сноудена, представників Google, Linux, Університету Мічигану й інших освітніх закладів.

Дослідники безпеки критикують нову політику Apple і вважають її небезпечною. Центр демократії та технологій зазначив, що Apple замінює свою стандартну систему наскрізного шифрування повідомлень на інфраструктуру для спостереження та цензури, яка створює нові ризики для дітей та інших користувачів.

(6.08): Apple представила нові функції для захисту дітей в інтернеті. Вони аналізуватимуть контент на пристроях і в iCloud, щоб розпізнати вміст сексуального характеру і повідомити про це батьків чи органи влади. При цьому компанія обіцяє зберегти конфіденційність користувачів. На початку ці функції діятимуть лише в США.

Розмиті фото і попередження у «Повідомленнях»

У застосунку «Повідомлення» будуть нові інструменти, які розпізнаватимуть фото сексуального характеру і попереджатимуть про це батьків і дітей. Сама фотографія при цьому буде розмита. Це буде відбуватись, якщо дитина отримала чи намагається надіслати відверті фотографії.

Перевіряти контент будуть інструменти машинного навчання. Усе відбуватиметься на пристрої, тож Apple не отримає доступу до цих даних і не порушуватиме конфіденційність користувачів.

Ця функція з'явиться пізніше цього року для сімейних облікових записів в iCloud для iOS 15, iPadOS 15 та macOS Monterey.

child-safety-evd7tla79kqe-large

Виявлення CSAM

Також Apple планує боротись з поширенням CSAM (Child Sexual Abuse Material). Нова технологія iOS і iPadOS розпізнаватиме такий контент в iCloud Photos і зможе надіслати попередження у Національний центр зниклих і експлуатованих дітей в США.

Сканування теж відбуватиметься на пристрої за допомогою засобів машинного навчання. Перед тим, як зберігати зображення в iCloud Photos, нейромережа зіставлятиме його з відомими хешами CSAM-контенту.

Інструменти безпеки у Siri та в пошуковику

Apple також додасть підказки у Siri та пошуковику, аби діти й батьки краще розуміли, що робити у небезпечних ситуаціях. Наприклад, Siri відповідатиме, як і куди саме повідомити про CSAM або експлуатацію дітей.

Якщо користувачі будуть цікавитись пов'язаним зі CSAM контентом, пошуковик і Siri пояснюватимуть, що інтерес до цієї теми шкідливий і проблематичний. Також вони вкажуть, де і як отримати допомогу з цим питанням.

Ці оновлення з'являться пізніше цього року для iOS 15, iPadOS 15, watchOS 8 та macOS Monterey.

Помітили помилку? Повідомте автору, для цього достатньо виділити текст з помилкою та натиснути Ctrl+Enter
Codeguida 6.2K
Приєднався: 7 місяців тому
Коментарі (0)

    Ще немає коментарів

Щоб залишити коментар необхідно авторизуватися.

Вхід / Реєстрація