Apple отложила запуск системы по обнаружению запрещённых снимков на iPhone

Apple откладывает сканирующее сканирование iCloud Photo CSAM

Новые функции появятся «позже в этом году

В пятницу Apple объявила, что три функции, которые она раскрыла, чтобы остановить распространение материалов о сексуальном насилии над детьми (CSAM), не будут доступны в осеннем выпуске iOS 15, iPadOS 15, watchOS 8 и macOS 12 Monterey. Компания сделает доступными функции CSAM «позже в этом году в виде обновлений».

В пресс-релизе Apple заявила: «Эта программа амбициозна, и защита детей — важная обязанность. Эти усилия будут развиваться и расширяться со временем ».

Apple представила функции CSAM в начале августа, и, хотя многие в техническом сообществе приветствовали усилия Apple по защите детей, многие также выразили озабоченность по поводу того, что технология, лежащая в основе функций CSAM, может быть использована для других целей наблюдения. Более 90 групп, занимающихся политикой и правами, опубликовали открытое письмо, в котором призвали Apple отказаться от функций CSAM.

Основная особенность, вызвавшая споры, — это функция обнаружения CSAM, при которой изображения на вашем устройстве сканируются на предмет хэшей, а затем эти хэши проверяются по списку известных хэшей CSAM. Аргумент против этой функции состоит в том, что она может быть реализована для других целей. Например, правительство может потребовать, чтобы Apple разработала аналогичный процесс для проверки изображений, которые считаются определяющими для политики правительства.

Apple заявила, что в таких ситуациях она отклонит такой запрос, но это заявление не вызывало у заинтересованных сторон никакого доверия. Правительства могут (и будут) всегда создавать последствия за невыполнение приказа, что может заставить Apple изменить свою политику. Также существует вероятность того, что Apple может решить использовать эту технологию для своих собственных целей, кроме CSAM, хотя это ослабит имидж Apple как компании, заботящейся о конфиденциальности пользователей.

Две другие функции CSAM, которые откладываются, включают:

  • Безопасность передачи сообщений: приложение «Сообщения» будет использовать машинное обучение на устройстве, чтобы предупреждать детей и родителей о конфиденциальном контенте.
  • Siri и поиск: эти функции предоставят дополнительные ресурсы, которые помогут детям и родителям оставаться в безопасности в Интернете и получать помощь в небезопасных ситуациях.
ASTERA
Добавить комментарий

Нажимая на кнопку "Отправить комментарий", я даю согласие на обработку персональных данных и принимаю политику конфиденциальности.