На Apple подали в суд в США за решение не внедрять систему, которая сканировала бы фотографии iCloud на наличие материалов о сексуальном насилии над детьми (CSAM).
Компания анонсировала эту функцию еще в 2021 году, но так и не запустила, а также «не принимает какие-либо меры для обнаружения и ограничения» этих материалов. Иск подала 27-летняя женщина. Она сказала, что родственник приставал к ней, когда она была младенцем, и он опубликовал ее фотографии в Интернете. Девушка почти каждый день получает уведомления от правоохранительных органов о том, что кого-то обвиняют в хранении этих изображений.
Адвокат Джеймс Марш, который участвует в судебном процессе, сказал, что есть потенциальная группа из 2680 жертв, которые могут иметь право на компенсацию в этом случае.
Apple заявила, что «срочно и активно внедряет инновации для борьбы с этими преступлениями без ущерба для безопасности и конфиденциальности всех пользователей». [The Verge]
![undefined](https://www.iphones.ru/wp-content/themes/simpla2/images/logo-transparent.png)
3 комментария
Форум →чего только не придумаешь, чтобы внедрить желаемое обновление)
Я думаю уже давно всё внедрено. Эпл неплохо распознает предметы в библиотеке фото. Наивно думать что ре распознаётся требуемый контент. Просто эти решили денег срубить скорее всего с компании
всё самое темное всегда проходит под прикрытием детей
Нашли орфографическую ошибку в новости?
Выделите ее мышью и нажмите Ctrl+Enter.Как на iPhone добавить иконки в статус-бар
Влияет ли True Tone на выгорание матрицы в iPhone X
Как понять, какой Apple Pencil выбрать для iPad
Почему iPhone с iOS 14 не видит другие устройства в сети Wi-Fi
Как на iPhone скрыть текст уведомлений в режиме Ожидание
Потерял (украли) iPhone — что делать? Порядок действий
Как настроить напоминание по геопозиции на iPhone?
Почему при покупке Mac не предоставляется год подписки на Apple TV+