Apple откладывает внедрение скандальной функциональности CSAM

В специальном пресс-релизе в Apple заявили, что программа компании весьма амбициозна, а защита детей имеет важное значение; соответствующие усилия с течением времени будут активизироваться и расширяться


09:34 07.09.2021   |   3491 |  Роман Лойола |  Macworld, США

Рубрика Индустрия



Соответствующие возможности появятся в операционных системах для устройств Apple «в этом году, но позже», заявили в компании.

Компания Apple объявила, что три анонсированные ранее функции, призванные остановить распространение материалов о сексуальном насилии над детьми (Child Sexual Abuse Material, CSAM), не будут доступны нынешней осенью в версиях iOS 15, iPadOS 15, watchOS 8 и macOS 12 Monterey. Ожидается, что они будут реализованы в обновлениях, которые предполагается выпустить в текущем году.

В специальном пресс-релизе Apple заявила, что программа ее весьма амбициозна, а защита детей имеет важное значение. Соответствующие усилия с течением времени будут активизироваться и расширяться.

Apple раскрыла функции CSAM в начале августа и, хотя немалая часть технического сообщества приветствовала ее усилия, направленные на защиту детей, многие пользователи и правозащитники выразили серьезную озабоченность по поводу того, что технология, лежащая в основе функций CSAM, может быть использована для организации наблюдения совсем в других целях. Более 90 политических и правозащитных групп опубликовали открытое письмо, в котором призвали Apple отменить введение CSAM.

Основной функцией, вызвавшей споры, стала функция обнаружения CSAM, которая просматривает изображения на устройстве и сравнивает их хеш с хешем из базы изображений CSAM. Аргумент против этой функции состоит в том, что она может быть реализована для других целей. Например, власти могут потребовать, чтобы в Apple создали аналогичный функционал для проверки изображений, которые имеют чувствительное значение для реализации политических целей.

В компании заявили, что подобный запрос будет сразу отклонен, но это не вызвало доверия у правозащитников. У правительств есть рычаги давления в случае неисполнения их указаний, что может заставить Apple пересмотреть свою позицию. Существует также вероятность того, что Apple решит использовать технологию для собственных целей, отличных от CSAM, хотя это и повредит ее имиджу компании, заботящейся о конфиденциальности пользователей.

Две другие функции CSAM, реализация которых откладывается, относятся к следующим областям:

  • Обеспечение безопасности при передаче сообщений (приложение «Сообщения» будет использовать встроенную систему машинного обучения для предупреждения детей и родителей о наличии контента, который может оскорбить их чувства);
  • Siri и Поиск (эти функции предоставят дополнительные ресурсы, которые помогут детям и родителям оставаться в безопасности в Интернете и получать помощь при возникновении небезопасных ситуаций).

Теги: Операционные системы Государство, общество и ИТ Информационная безопасность Персональные данные показывать на главной Самое интересное Apple Конфиденциальность
На ту же тему: