В 2021 году Apple анонсировала, а затем быстро отозвала спорную систему iCloud, которая сканировала бы iMessage и фотографии iCloud на предмет наличия материалов сексуального насилия над детьми (CSAM).
Система позволила бы Apple анализировать фотографии на устройствах Apple, используемых детьми, но компания оказалась в эпицентре бури из-за проблем с конфиденциальностью, поднятых экспертами и группами по защите прав. Apple отказалась от системы, заявив, что им «потребуется дополнительное время в течение следующих месяцев для сбора информации и внесения улучшений, прежде чем выпустить эти критически важные функции безопасности детей».
С тех пор Apple хранила молчание о каких-либо функциях, касающихся CSAM. Теперь (через Engadget ) в иске жертвы, поданном в Окружной суд США в Северной Калифорнии, утверждается, что неспособность Apple обеспечить меры безопасности привела к тому, что ее изображения были ненадлежащим образом распространены в Интернете.
Впервые об этом сообщила The New York Times, 27-летняя женщина сказала, что она и ее мать постоянно получали уведомления о нескольких лицах, обвиняемых в хранении. В иске требуется финансовая компенсация для 2680 жертв, чьи изображения были слиты в сеть.
Представитель Apple Фред Сайнс заявил Engadget, что CSAM «отвратительно, и мы намерены бороться с тем, как хищники подвергают детей риску». Сайнс сказал, что компания «срочно и активно» ищет способы «борьбы с этими преступлениями, не ставя под угрозу безопасность и конфиденциальность всех наших пользователей».