В США корпорация Apple оказалась в центре судебного разбирательства из-за отказа сканировать фотографии пользователей на наличие материалов, связанных с жестоким обращением с детьми.
В конце 2022 года Apple приняла решение не внедрять функцию сканирования CSAM, анонсированную в 2021 году, под давлением активистов.
Как пишет The New York Times, иск подала 27-летняя женщина, которая утверждает, что стала жертвой сексуального насилия в детстве и нашла свои приватные фотографии в сервисе iCloud.
Она считает, что отказ Apple от функции CSAM способствовал легализации хранения запрещенных материалов на устройствах компании.
К иску присоединились 2680 человек. В документе утверждается, что вместо защиты пользователей Apple способствует распространению их приватных фотографий, что вынуждает жертв снова переживать свои травмы.
Истцы требуют от компании внедрения функции CSAM и выплаты компенсации не менее 150 тысяч долларов.
В ответ представитель Apple, Фред Сайнс, заявил, что компания считает материалы, содержащие сцены жестокого обращения с детьми, отвратительными и будет активно бороться с любыми проявлениями насилия.