Apple теперь сканирует ваши фото на предмет жестокого обращения с детьми
Новая система защиты.
Apple может сканировать загружаемый в iCloud контент на предмет потенциально незаконных материалов, включая жестокое обращение с детьми. Об этом говорится в обновленной политике конфиденциальности Apple от мая 2019 года. Важное изменение заметил журналист зарубежного издания The Mac Observer Эндрю Орр.
Apple сканирует мои фото? Что?!
По словам Орра, вероятнее всего, Apple использует технологию PhotoDNA для сканирования изображений, которые пользователи загружают в iCloud. Эта технология была разработана компанией Microsoft в 2009 году как раз-таки для отслеживания детской порнографии.
Технология делает изображение черно-белым, разбивает его на сетку и просматривает градиенты интенсивности по всему кадру для вычисления градиентов, соответствующих многочисленным примерам запрещенного контента. В последние несколько лет технология активно поддерживается машинным обучением. Microsoft пожертвовала технологию PhotoDNA Национальному центру поиска пропавших и эксплуатируемых детей (NCMEC), который предоставляет ее использование ведущим IT-компаниям, включая Apple, Facebook и Twitter.
Журналисту не удалось выяснить, на какой стадии Apple проверяет загружаемые пользователи фотографии. Компания нигде об этом не сообщает. Он предполагает, что сканирование происходит в момент передачи изображений на сервера, поскольку когда фотографии уже загружены, они хранятся в зашифрованном виде.
Орр полностью поддерживает стремление Apple по отслеживанию запрещенного контента, который, ко всему прочему, касается детей. Тем не менее, по его словам, компания должна более четко рассказать пользователям о том, какой контент и когда именно сканируется.
Смотрите также:
- Xiaomi Mi Band 5: будет ли NFC работать в России
- Сохранение контактов iPhone на СИМ-карте (подробная инструкция)
✅ Подписывайтесь на нас в Telegram, ВКонтакте, и Яндекс.Дзен.