Apple ответила на самые популярные вопросы про сканирование фото на iPhone

Илья Сидоров avatar | 25
FavoriteLoading В закладки
Apple ответила на самые популярные вопросы про сканирование фото на iPhone

Apple ответила на популярные вопросы пользователей, связанные с новой функцией iOS 15, которая автоматически обнаруживает фотографии, содержащие сцены с жестоким обращением с детьми (CSAM).

В тему: Бояться не надо? Разбираем, как Apple будет сканировать ваши фото на айфоне, искать запрещёнку и даже докладывать в органы

По словам Apple, её технология обнаруживает только CSAM-фото и не предназначена для поиска других изображений.

Можно ли использовать систему обнаружения CSAM в Фото iCloud для поиска вещей, кроме CSAM?

Наш процесс разработан таким образом, чтобы этого не произошло. Обнаружение CSAM для Фото iCloud построено так, что система работает только с хэшами изображений CSAM, предоставленными NCMEC и другими организациями, занимающихся безопасностью детей. Этот набор хэшей изображений основан на изображениях, полученных и подтвержденных как CSAM организациями по детской безопасности. Автоматическое информирование правоохранительных органов не предусмотрено, и сотрудник Apple проводит дополнительную проверку, прежде чем отправить отчет в NCMEC. В результате система предназначена только для сообщения о фотографиях, которые известны как CSAM в Фото iCloud. В большинстве стран, в том числе и в США, простое хранение таких изображений является преступлением, и Apple обязана сообщать о любых случаях, о которых мы узнаем, в соответствующие органы.

Могут ли правительства заставить Apple добавить изображения, не относящиеся к CSAM, в список хэшей?

Apple откажется от любых подобных требований. Возможности Apple по поиску CSAM созданы исключительно для обнаружения известных изображений CSAM, хранящихся в Фото iCloud, которые были идентифицированы экспертами NCMEC и другими организациями, связанными с безопасностью детей. Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и мы категорически отказывались от них. Мы будем продолжать отказываться от них и в будущем. Давайте проясним: эта технология ограничена обнаружением CSAM, хранящихся в iCloud, и мы не будем подчиняться никаким требованиям правительства расширить ее.

Будет ли обнаружение CSAM в Фото iCloud ошибаться и сообщать о невиновных людях в правоохранительные органы?

Нет. Система разработана с высокой точностью, и вероятность того, что она неправильно пометит какую-либо учетную запись, составляет менее одного случая на один триллион в год. Кроме того, каждый раз, когда аккаунт помечается системой, сотрудники Apple проводят дополнительную проверку перед тем, как сообщить NCMEC. Таким образом, системные ошибки или атаки не приведут к тому, что о невиновных людях сообщат в NCMEC.

Функция обнаружения CSAM-фото заработает до конца этого года в США. Затем Apple планирует активировать её в других странах. [Apple]

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (10 голосов, общий рейтинг: 4.60 из 5)
🤓 Хочешь больше? Подпишись на наш Telegram.
... и не забывай читать наш Facebook и Twitter 🍒
FavoriteLoading В закладки
undefined
iPhones.ru
Бояться не стоит.
Прокомментировать

🙈 Комментарии 25

  1. koldun avatar
    koldun9 августа в 10:50
    4

    Главный вопрос – сообщаться будет в органы местные или в сша? Если с местными можно хотя бы разобраться что происходит и где что нашли, то американские просто сажают, а пооом очень долго и предвзято разбираются. Не хотелось бы чтобы из-за недоразумения меня схватили в какой-нить стране-шестерке, экстрадировали в демократическую омерику, а там потом я бы на своё здоровье и свои деньги доказывал и разбирался в своей невиновности.

    iggikkk avatar
    iggikkk9 августа в 11:48
    4

    @koldun, лол, вы ничего не перепутали? В США судебная система работает более-менее справедливо, в отличии от..) Где даже будучи правым, дойдя до ЕСПЧ, доказав свою невиновность, тебе скажут – а мы единственная страна, которая не выполняет решения этого суда, сиди дальше и не отсвечивай.

    dmitryermakov avatar
    dmitryermakov9 августа в 12:00
    7

    @iggikkk, ну конечно, рассказывай тут сказки. Сколько граждан других государств было арестовано в третьих странах-шестерках и экстрадировано в США на основе решения исключительно суда США

    iggikkk avatar
    iggikkk9 августа в 12:20
    2

    @dmitryermakov, ну дык не надо нарушать законы США, не, не вариант?) И что за дурацкий термин страны-шестерки? Есть договара об экстрадиции, все в рамках закона. Нарушаешь законы США ну ок, сиди в тех странах, с которыми нет договора об экстрадиции, никто тебя не тронет.

    dmitryermakov avatar
    dmitryermakov9 августа в 12:33
    5

    @iggikkk, еще раз, эти люди – граждане ДРУГИХ государств, не США, не стран-шестерок. На них не не распространяется договор об экстрадиции ни коим образом. Если эти люди нарушают законы США, значит США должны обращаться с запросом на выдачу этих людей в правоохранительные органы государств, чьими гражданами эти люди являются, а не заниматься беспределом.

    iggikkk avatar
    iggikkk9 августа в 12:50
    2

    @dmitryermakov, смотрите. Приезжает условный кардер из России в Грецию потратить честно сворованные денежки. Полиция Греции арестовывает его и по договору передает США. Всё честно и законно, для этого не нужно быть гражданином Греции. Почитайте условия экстрадации.

    pzdc avatar
    pzdc10 августа в 1:53
    0

    @iggikkk, Ты молишься перед сном на СГА?

  2. j.raw avatar
    j.raw9 августа в 11:08
    8

    Мы конечно же верим эплу, ага

  3. DeTimaro avatar
    DeTimaro9 августа в 11:15
    3

    Вранье и провокация

    iWolf avatar
    iWolf9 августа в 11:29
    1

    @DeTimaro, А провокация то на что?

    DeTimaro avatar
    DeTimaro9 августа в 11:38
    1

    @iWolf, хранить фото, которые могут быть использованы против Вас, даже если это не относится к детскому порно

    iWolf avatar
    iWolf9 августа в 13:29
    3

    @DeTimaro, так не храните. Если прижмут конкретно вас, то куда проще будет, если этих фотографий не будет, ведь терморектальный криптоанализатор никто не отменял.

    Вообще это глупо думать, что фотографии, которые так или иначе попадают на чужие сервера не будут как минимум анализироваться.

  4. Pavel avatar
    Pavel9 августа в 11:28
    6

    Бояться таки стоит. Этот якобы алгоритм хеширования на деле обратимый. Из того хэша можно понять приблизительно, что находится на фото. Хоть и в разрешении 26 на 26 точек, но всё же. Затея очень дурная.

    iggikkk avatar
    iggikkk9 августа в 11:51
    0

    @Pavel, и что можно сделать с фото 26 на 26? Если там есть лица, распознать их будет невозможно, так же как и все остальные предметы.

  5. dmitryermakov avatar
    dmitryermakov9 августа в 11:44
    7

    “Могут ли правительства заставить Apple – Apple откажется от любых подобных требований”, но при этом – “система работает только с хэшами изображений CSAM, предоставленными NCMEC и другими организациями, занимающихся безопасностью детей”.
    Ага, то есть какие-то американские мутные частные некоммерческие организации – это истина в последней инстанции.
    Apple – ты что, держишь всех да дураков?

    fedorez avatar
    fedorez9 августа в 15:28
    2

    @dmitryermakov, конечно держит. Раньше пипл хавал, решили что сейчас-то чё нет

    fedorez avatar
    fedorez9 августа в 15:30
    2

    Уровень аргументов Apple: «- Да всё будет чОтка, мамой клянусь. Ты чего, не веришь мне?»

  6. fimoz avatar
    fimoz9 августа в 12:43
    8

    Неужели проблема цп так актуальна?
    Это просто пудра для мозгов электората. Искать они, конечно, будут что-то другое. Блокчейн отчасти какой-то напоминает…

    Ну и «эффект Стрейзанд» они конечно запустят нехилый к цп, имхо.

  7. Йода avatar
    Йода9 августа в 14:15
    0

    Смысл такой:

    – Мы уже сканируем фотографии триллионами и ошиблись всего в паре фоток на телефоне Обамы. Не бойтесь, зуб даем, что никому ни слова не скажем, для этого и сканируем, чтобы никому не говорить.

  8. MMM8 avatar
    MMM89 августа в 16:23
    1

    Везде где читаю об этом, никто не задаётся вопросом: если они ищут фотографии соответствующие данным из каких то там баз, то почему они сканируют ВСЕ фото, в том числе и сделанные моим айфоном?!
    Разговоры, что можно подделать EXIF данные и весь запрещённый контент маркировать как сделанный на данном устройстве не актуальны, те кто на такое заморочатся, спокойно скроются и от этих алгоритмов.

    iGitlin avatar
    iGitlin9 августа в 17:26
    2

    @MMM8, вот не понятно – если педофил на свой телефон сделал фото, то и сравнивать их будет не с чем – в базе NCMEC их то нет.
    А сравнение идет с известными и потвержденными фото.

  9. iGitlin avatar
    iGitlin9 августа в 17:25
    1

    Даже если Apple не будет ничего менять в алгоритмах – а это всего лишь сравнение по некоему хешу, нет никакой гарантии что в NCMEC не продавяться и не начнут вносит в базу указанные властями фото.

    Dima Shved avatar
    Dima Shved9 августа в 18:10
    0

    @iGitlin, Наоборот есть гарантия что так и будет. И сделано это для того чтобы республиканцы больше не пришли к власти т.к. демократы уже допустили такую оплошность с Трампом. Какие там дети я вас умоляю.

  10. The_mechanic avatar
    The_mechanic9 августа в 19:01
    1

    Как бы не был приятен и удобен айфон, но удавка уж слишком затянулась. Если еще с сканером окружающих устройств в виде обновленного Локатора в 13 IOS как то можно было смириться, хотя и взбесило такое положение вещей. Поговорка “волков бояться в лес не ходить” в данном контексте уже неприменима. Уж лучше откачусь добровольно назад на лет десять – минус один приверженец у Apple. Я справлюсь, надеюсь до многих дойдет тоже самое, главное чтобы не стало слишком поздно в этом “прозрачном мире”.

  11. RM avatar
    RM9 августа в 22:40
    0

    Ну-ну…

Вы должны авторизоваться или зарегистрироваться для комментирования.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь