Правозащитные организации из 90 стран призвали Apple не добавлять анализ фотографий CSAM в iOS 15

Василий Шкодник avatar | 19
FavoriteLoading В закладки
Правозащитные организации из 90 стран призвали Apple не добавлять анализ фотографий CSAM в iOS 15

Международная коалиция, состоящая из более чем 90 политических и правозащитных групп опубликовала открытое письмо, в котором призвала Apple отказаться от интеграции анализа фотографий CSAM в свои продукты.

Хотя эти возможности предназначены для защиты детей, мы обеспокоены, что они будут использоваться для цензуры общения. Такой подход может привести к катастрофическим последствиям.

Отрывок из письма.

В публикации также содержится критика новых функций iMessage для семейных аккаунтов. Кто пропустил, напомним — если ребёнку на iPhone будет приходить сообщения с обнажёнными фотографиями, iMessage будет автоматически их размывать.

А родителям поступят уведомление, о том, что к ребёнку на телефон пришли такие снимки. Просмотреть такие фото ребёнок может только с подтверждения родителей.

В тему: Бояться не надо? Разбираем, как Apple будет сканировать ваши фото на айфоне, искать запрещёнку и даже докладывать в органы

Так вот, критикующие стороны считают, что это может усугубить взаимоотношение детей с родителями, а также помешать тем, кто использует такие изображения в образовательных целях.

Некоммерческая организация Center for Democracy & Technology (CDT) опасается, что шансы CSAM предоставить бэкдор политикам для осуществления репрессий слишком велики.

Как только CSAM будет встроена в большинство iPhone, органы власти в некоторых странах однозначно попытаются заставить Apple осуществлять поиск «неугодного» контента и учётные записи «неугодных» лиц.

В данном случае речь идёт не про поиск фотографий, на которых изображено насилие над детьми.

Большинство правозащитных групп, подписавших письмо, находятся в Индии, Мексике, Германии, Аргентине, Гане и Танзании.

Также поддержку проявили: Американский союз гражданских свобод, Electronic Frontier Foundation, Access Now, Privacy International и Tor Project.

Apple заявляет, что ни при каких обстоятельствах не будет давать доступ к технологии NeuralHash и CSAM третьим лицам. [MacRumors]

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (8 голосов, общий рейтинг: 5.00 из 5)
undefined
iPhones.ru
Правозащитные организации написали открытое письмо Тиму Куку.
Вы должны авторизоваться или зарегистрироваться для комментирования.

🙈 Все комментарии

Форум →
  1. Ruslan Zosiashvili avatar
    Ruslan Zosiashvili19 августа 2021
    0

    Слежка слежка слежка … технологий в первую очередь для служб безопасности и власти 🤐

  2. eagle7 avatar
    eagle719 августа 2021
    15

    Я один читаю CSAM как SCAM?)

  3. kmbvst avatar
    kmbvst19 августа 2021
    2

    Виктор Иванович, зачем вы нашему сыну прислали фото своего полового органа? Аааа, в образовательных целях? Ну тогда ладно, а то мы подумали…пффффф.
    Интересные правозащитники.

    Phonerz avatar
    Phonerz19 августа 2021
    1

    @kmbvst, вот действительно, очень странно, что правозащитники за это так переживают.

  4. Дмитрий Скворцов avatar
    Дмитрий Скворцов19 августа 2021
    1

    Уахахаха))))

  5. Phonerz avatar
    Phonerz19 августа 2021
    2

    Хотя-бы кто-то нормально прочитал про технологию применяемую. Похоже – нет. Эта технология не анализирует содержимое изображений, она вообще не знает что на снимке, она лишь делает из снимка математическую модель из которой генерируется уникальный идентификатор и он сравнивается с существующей базой, а что бы почти практически под ноль свести случайное совпадение, та устройстве и в iCloud должна быть определенная надкритическая масса. По этому все эти «правозащитнеги» дрянной натуры могут переживать только за то, что какой-то из них будет держать вот такие противоречащие любому здравому смыслу изображения у себя на телефоне, которые он скачал из интернета, ну или третьи государства изготовят хэши секретных документов и будут требовать от apple данные по тем, кто без предписания их сфотографировал на телефон.

    Полосатый Шмель avatar
    Полосатый Шмель19 августа 2021
    1

    @Phonerz, это не система с открытым исходным кодом, где можно зайти и почитать сорцы в гите. Они могут что угодно заявлять, ведь всё равно никто не узнает как внутри всё работает.
    Это тоже самое, что и с телегой. Да, исходники клиента открыты, но какие исходники сервака – никто не знает.

    Shniperson avatar
    Shniperson19 августа 2021
    4

    @Phonerz, “какой-то из них будет держать вот такие противоречащие любому здравому смыслу изображения у себя на телефоне”

    Да-да, мы это уже проходили на российском законодательстве, когда “противоречащие здравому смыслу” главные преступники – это внезапно борцы с коррупцией и прочая оппозиция. А ведь тоже все красиво начиналось в рамках борьбы с мировой угрозой и исключительно для защиты детей.

    Phonerz avatar
    Phonerz19 августа 2021
    1

    @Shniperson, «борцы с коррупцией»? Вы правда в это верите?

    iGitlin avatar
    iGitlin19 августа 2021
    5

    @Phonerz, да, но ничто не мешает этой технологии сравнивать хеши мат моделей не только запрещенных фото, но и любых которые CSAM добавит в свою базу. Кто знает что завтра туда попадет? База то закрытая и нигде нет того что именно и с чем будет сравниваться – одни слова.

    Phonerz avatar
    Phonerz19 августа 2021
    1

    @iGitlin, обычному человеку ничего и волноваться, сканы документов Пентагона ему при нормальных условиях на телефон и попасть то не должны. И наверное толко совсем дурак будет их сохранять в фотопленку телефона и iCloud.

    iBolobay avatar
    iBolobay20 августа 2021
    1

    @Phonerz, если посмотрите дальше своего носа, то поймёте, что то, что подсунут в базе, то на телефоне и будет искаться.

  6. Дмитрий Скворцов avatar
    Дмитрий Скворцов19 августа 2021
    2

    Вот… Увидишь вдалельца андроида знай, что потенциально он уклоняется от контроля эпл на педофилию!

  7. eon avatar
    eon19 августа 2021
    1

    А к фэйсбуку, МС. гугл и другим компаниям они тоже обратились? Что-то мне подсказывает, что нет, хотя те пользуются этим сканированием уже давно. Ох уж эти хайпажеры.

  8. Y.Badiner avatar
    Y.Badiner19 августа 2021
    0

    Святой Дарвин, потягаться в количестве публикации эта тема может разве что с ситуацией с Афганистане. Сколько можно это обсасывать?

  9. AzbukaIT avatar
    AzbukaIT19 августа 2021
    2

    А вы заметили как ярые приверженцы продукции Эпл, здесь в комментариях уже начали говорить, что это не так страшно, да вы чего, это во благо )))))

    Phonerz avatar
    Phonerz19 августа 2021
    2

    @AzbukaIT, а Вы не заметили, что подобные технологии используются разными компаниями, что западными, что отечественными. Apple вообще могла молча начать это делать на стороне сервера, но предпочла делать на стороне устройства и официально эту информацию опубликовала. Уверяю, если Вы использовали Google Фото, то фотографии уже такой анализ прошли.

  10. meowmeow avatar
    meowmeow19 августа 2021
    1

    Теперь народ двадцать раз подумает прежде чем снимать хоум фото и видео на смартфон.

    Я никогда не поверю, что кто-то имея в руках ключик для доступа к контенту пользователя да и сам контент в подконтрольном ему облаке, туда не залезет если очень надо будет.

    Zloy_O avatar
    Zloy_O21 августа 2021
    1

    @meowmeow, не все такие как вы

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь