На Apple подали в суд в США за решение не внедрять систему, которая сканировала бы фотографии iCloud на наличие материалов о сексуальном насилии над детьми (CSAM).
Компания анонсировала эту функцию еще в 2021 году, но так и не запустила, а также «не принимает какие-либо меры для обнаружения и ограничения» этих материалов. Иск подала 27-летняя женщина. Она сказала, что родственник приставал к ней, когда она была младенцем, и он опубликовал ее фотографии в Интернете. Девушка почти каждый день получает уведомления от правоохранительных органов о том, что кого-то обвиняют в хранении этих изображений.
Адвокат Джеймс Марш, который участвует в судебном процессе, сказал, что есть потенциальная группа из 2680 жертв, которые могут иметь право на компенсацию в этом случае.
Apple заявила, что «срочно и активно внедряет инновации для борьбы с этими преступлениями без ущерба для безопасности и конфиденциальности всех пользователей». [The Verge]

чего только не придумаешь, чтобы внедрить желаемое обновление)
Я думаю уже давно всё внедрено. Эпл неплохо распознает предметы в библиотеке фото. Наивно думать что ре распознаётся требуемый контент. Просто эти решили денег срубить скорее всего с компании