Apple отложила запуск функции, которая автоматически обнаруживает в iOS 15 фотографии, содержащие сцены с жестоким обращением с детьми (CSAM).
Компания прислушалась к критике и пообещала доработать алгоритм.
В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от преступников, которые используют средства связи для их вербовки и эксплуатации, а также ограничить распространение материалов с сексуальным насилием над детьми. Основываясь на отзывах клиентов, общественных групп, исследователей и других людей, мы решили выделить дополнительное время в ближайшие месяцы для сбора информации и внесения улучшений, прежде чем выпускать эти критически важные функции безопасности для детей.
Apple
Изначально Apple планировала запустить сканирование фото в одном из обновлений iOS 15 в конце 2021 года.
Компания не сказала, когда теперь стоит ожидать релиза новой функции. Вероятно, она выйдет в следующем году. [9to5Mac]
Это хорошо что компания Apple умеет прислушиваться. Она конечно могла бы и втихую выпустить данный алгоритм и не говорить об этом во всё услышанье, но она сделала так как сделала. И то что она отложила эту функцию это хорошо для тех кто боится быть пойманным
@Антон Григорьевич, те-же яйца, только вид сбоку. Она отложила а не отменила, запустят когда все успокоются
@OIdBOY, Так я и не написал что отменила.