iPhones.ru

На Apple подали в суд из-за того, что она не внедрила систему CSAM для сканирования фото на предмет насилия над детьми

Артём Баусов avatar | 3
FavoriteLoading В закладки
На Apple подали в суд из-за того, что она не внедрила систему CSAM для сканирования фото на предмет насилия над детьми

На Apple подали в суд в США за решение не внедрять систему, которая сканировала бы фотографии iCloud на наличие материалов о сексуальном насилии над детьми (CSAM).

Компания анонсировала эту функцию еще в 2021 году, но так и не запустила, а также «не принимает какие-либо меры для обнаружения и ограничения» этих материалов. Иск подала 27-летняя женщина. Она сказала, что родственник приставал к ней, когда она была младенцем, и он опубликовал ее фотографии в Интернете. Девушка почти каждый день получает уведомления от правоохранительных органов о том, что кого-то обвиняют в хранении этих изображений.

Адвокат Джеймс Марш, который участвует в судебном процессе, сказал, что есть потенциальная группа из 2680 жертв, которые могут иметь право на компенсацию в этом случае.

Apple заявила, что «срочно и активно внедряет инновации для борьбы с этими преступлениями без ущерба для безопасности и конфиденциальности всех пользователей». [The Verge]

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (8 голосов, общий рейтинг: 4.38 из 5)
undefined
iPhones.ru
На Apple подали в суд в США за решение не внедрять систему, которая сканировала бы фотографии iCloud на наличие материалов о сексуальном насилии над детьми (CSAM). Компания анонсировала эту функцию еще в 2021 году, но так и не запустила, а также «не принимает какие-либо меры для обнаружения и ограничения» этих материалов. Иск подала 27-летняя женщина....
Здесь можно оставить комментарий! Для этого авторизуйтесь или зарегистрируйтесь на iPhones.ru.

3 комментария

Форум →
  1. С
    Саша Смирнов
    9 декабря 2024
    3

    чего только не придумаешь, чтобы внедрить желаемое обновление)

    Концентратор avatar
    Концентратор9 декабря 2024
    1

    Я думаю уже давно всё внедрено. Эпл неплохо распознает предметы в библиотеке фото. Наивно думать что ре распознаётся требуемый контент. Просто эти решили денег срубить скорее всего с компании

    Войди на сайт, чтобы ответить
    Ответить
  2. Deriganahh avatar
    Deriganahh 10 декабря 2024
    0

    всё самое темное всегда проходит под прикрытием детей

    Войди на сайт, чтобы ответить
    Ответить
Помни о правилах — если начал оффтопить, то не удивляйся потом.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.