Вице-президент Apple по работе с интеллектуальными системами Себастьян Марино-Мес написал письмо команде, которая занималась разработкой пакета мер по защите детей. Портал 9to5Mac его опубликовал.
Себастьян поблагодарил в обращении всех причастных, подчеркнув, что вместе им удалось сделать огромный шаг в важной задаче — защите детей.
Известно, что Apple знает о шумихе и негодовании множества пользователей. Однако компания «сохранит глубокую приверженность конфиденциальности пользователей и продолжит развитие в этом направлении». Также руководство понимает причины переживаний владельцев яблочной техники.
Мы знаем, что у некоторых людей есть недопонимание, и многие обеспокоены последствиями, но мы продолжим объяснять и детализировать функции, чтобы люди понимали, что мы создали.
Известно, что алгоритм NeuralHash не анализирует непосредственно сами фотографии, а сравнивает их с базой данных хешей ФБР, которая была собрана из фотографий и видеороликов, содержащих жестокое обращение с детьми.
В отдельном материале мы подробно и простым языком рассказали о работе данной технологии.
Тем не менее эксперты и исследователи в области безопасности высказывают опасения по этому поводу. Некоммерческий фонд Electronic Frontier Foundation, который занимается борьбой за права и свободы людей в интернете написал в своём блоге:
Невозможно создать систему сканирования на стороне клиента, которая будет анализировать (подчёркиваем) только изображения сексуального характера. Значит, существует возможность анализа всех фотографий. Это может стать бэкдором для неправомерного доступа к личной информации.
Но если верить официальным сообщениям и техническим документам, то опасаться NeuralHash не стоит. Во-первых, пока что алгоритм будет работать только в США.
А во-вторых даже при ручной проверке хешей сотрудники Apple не смогут видеть фотографий. При возникновении подозрений разбираться будут правоохранительные органы и уполномоченные организации. [The Verge]
Войди и оставь комментарий
Или войди с помощью
Чует моя чуйка, что мы на грани большого шухера😂
@MSK 313, срочно удаляйте порнофотки!
@Igor, благими намерениями вымощена дорога в ад
@Igor, У дядьки на фото такая довольная морда, как будто он уже видел все твои фото :-)
Верим верим закрытому исходному коду.
@Vladimir B, как и открытому, ведь каждый сам готов изучить лично миллионы строчек кода и скомпилить компилятором, который уж точно ничего не внедрит на этапе компиляции)
@Dmitry T, facepalm
@Vladimir B, давайте ещё будем обыски проводить раз в месяц для профилактики. Ну а че? Вам же скрывать нечего!
“При возникновении подозрений разбираться будут правоохранительные органы и уполномоченные организации”
так это ещё хуже. Напоминаю про британскую почту, откуда десять лет увольняли и заводили уголовные дела за кражу, потому что причин не доверять софту нет, а потом таки нашли ошибку.
“Известно, что алгоритм NeuralHash не анализирует непосредственно сами фотографии, а сравнивает их с базой данных хешей ФБР”
Ага, не анализирует. Лезем в документ, и тут же находим:
“NeuralHash is a perceptual hashing function that maps images to numbers. Perceptual hashing bases this number on features of the image instead of the precise values of pixels in the image.”
То есть это не просто хэширующая функция типа md5, sha* и т.п., это нейросетка, которая выделяет определённые фичи на ваших фотографиях (и на фотках из базы ФБР) и уже от них считает хэши и сравнивает. Если это не анализ фото, то я хз, что тогда анализ.
@AppleDominator, алгоритм жесть, но это не нейронка. Это штука работает так же как работают программы по поиску похожих фото: они вычисляют примерный визуальный хэш, такие хэши тем ближе тем фотографии похоже. Там много вариантов алгоритмов на том же GitHub, есть те, которые толерантны к кадрированию изображения. В простейшем варианте там тупо сжимается изображение до разрешения 3 на 3 пикселя и получается этот хэш, это как пример что нейронка тут не нужна.
Проблема в другом. Получается такая ситуация:
У ФБР есть база данных нелегальных изображений. ФБР из неё считает хэши, эти хэши загружаются на все айфоны и айфон рапортует если что-то похожее найдено на эти хэши. Сами фотографии из базы ни Эппл ни полдьзователь айфона не видит. То есть ФБР может в какой-то момент начать добавлять хэши любого фото и смотреть у кого есть, к примеру, фото белого дома. Или оппозиционера какого. Или наркотиков или ещё чего неугодного ФБР.
«Бояться не стоит»
А, ну тогда ладно.
“При возникновении подозрений разбираться будут правоохранительные органы и уполномоченные организации.” – ого! а как Apple может быть уверена, что хэш означает действительно насилие в отношении детей, а не политическое преследование, если они даже не видят исходник?! Похоже, Apple не хочет терять деньги, которые зарабатывает сейчас израильская ios-hack-контора!
Таааааак, кто собрался копаться в моих фото?????? Я вроде как не разрешал. А еще и стучать потом. Давайте лучше в авто трекеры поставим с завода и машина будет сама стучать на владельца о превышени, неправильной парковке и так далее… а все камеры и радары можно будет убрать:) Круто придумал…
@Дмитрий Скворцов, вы таки недалеки от истины. С 2022 года обещают подобный функционал в датчики эраглонасс. Пока под видом скидок на страховки за аккуратное вождение.
Нет никакого сомнения, что корпорации имеют доступ ко всем данным, которые пользователь загрузил на облачные ресурсы. А все эти сказки про хеши пусть рассказывают обывателям.
@meowmeow, речь про данные, которые даже не загружены в облако
@Антон Грахольский, у большинства пользователей iCloud фото попадут в облако через минуту после того как оно снято. Но даже если нет, то смысл не поменяется – софт на самом телефоне будет анализировать фото и если что сливать его куда надо. Телефоны нынче мощные. Придется перестать фотографировать свои утехи с резиновыми куклами в косплей-одежке.
Рекомендуем
Нашли орфографическую ошибку в новости?
Выделите ее мышью и нажмите Ctrl+Enter.