На Apple был подан судебный иск, обвиняющий её в умышленном бездействии по отношению к хранению материалов, связанных с сексуальным насилием над детьми (CSAM*), в облачном сервисе iCloud.
Иск, поданный от имени жертв подвергшихся насилию, утверждает, что Apple своим бездействием причинила дополнительный вред и страдания пострадавшим. В качестве примера приводят случай 27-летней женщины, которая подвергалась насилию будучи ребенком, со стороны родственника. Насильник снял это на видео и распространил в интернете. Женщина до сих пор получает уведомления от правоохранительных органов об обнаружении этих материалов на различных сервисах, включая те, которые хранились в iCloud Apple.
Иск затрагивает предыдущие попытки Apple обнаружить CSAM в iCloud. В августе 2021 года компания анонсировала функцию «CSAM Detection», которая должна была использовать технологию NeuralHash для идентификации известного CSAM. Однако из-за опасений, выраженных активистами и специалистами по безопасности, связанных с потенциальным нарушением конфиденциальности, Apple отказалась от этой программы.
Иск утверждает, что решение Apple отказаться от обнаружения CSAM свидетельствует о преднамеренном пренебрежении безопасностью детей. Согласно иску, вместо того чтобы использовать созданные ею инструменты для идентификации, удаления и сообщения о материалах, связанных с насилием, Apple позволила их распространению, заставляя жертв переживать травму заново.
Цель иска — заставить Apple принять решительные меры по предотвращению хранения и распространения CSAM на своей платформе, а также выплатить компенсацию потенциальной группе из 2680 пострадавших, которые могут присоединиться к делу.
Пока что Apple не дала официального ответа на иск. Однако представитель компании заявил, что Apple активно и срочно внедряет инновации для борьбы с преступлениями, связанными с сексуальным насилием над детьми, не ставя под угрозу безопасность и конфиденциальность своих пользователей.
Apple всегда гордилась своей приверженностью конфиденциальности и безопасности. Однако этот иск напрямую ставит под сомнение эту репутацию. Результат данного дела может иметь существенное влияние на имидж бренда Apple и её будущие проекты.
*Обнаружение CSAM позволяет Apple точно идентифицировать и сообщать о пользователях iCloud, которые хранят незаконные материалы с содержанием сексуального насилия над детьми в своих учетных записях iCloud Photos.