WhatsApp 负责人和其他技术专家回击 Apple 的儿童安全计划

2021-08-09 17:22:44

周末,随着一封有 4,000 多个签名的公开信在网上流传,表达对 Apple 新儿童安全措施的担忧和失望的声音越来越大。 Apple Privacy Letter 要求 iPhone 制造商“重新考虑其技术推出”,以免它取消“技术专家、学者和政策倡导者在隐私保护措施方面的数十年工作”。苹果公司周四宣布的计划涉及获取上传到 iCloud 的图像的哈希值,并将它们与包含已知 CSAM 图像哈希值的数据库进行比较。据 Apple 称,这使其能够对用户数据进行加密并在设备上运行分析,同时仍允许它在发现用户共享虐待儿童图像时向当局报告用户。 Apple 儿童安全策略的另一个方面是,如果 13 岁以下的孩子发送或查看包含色情内容的照片,可选择警告父母。苹果公司的一份内部备忘录承认,人们会“担心这些系统的影响”。 Cathcart 称 Apple 的方法“非常令人担忧”,而且他并不孤单,WhatsApp 的负责人 Will Cathcart 在 Twitter 帖子中表示,他的公司不会采取安全措施,称 Apple 的方法“非常令人担忧”。 Cathcart 表示,WhatsApp 打击儿童剥削的系统部分利用了用户报告,像 Apple 一样保留了加密,并导致该公司在 2020 年向国家失踪和受虐儿童中心报告了超过 400,000 起案件。(Apple 还与该中心合作)其 CSAM 检测工作。)WhatsApp 的所有者 Facebook 有理由因为隐私问题而向 Apple 发起攻击。苹果对 iOS 14.5 中广告跟踪工作方式的改变引发了两家公司之间的斗争,Facebook 购买了报纸广告,批评苹果的隐私变化对小企业有害。苹果回击称,这一变化“只是要求”用户可以选择是否被跟踪。对 Apple 的政策表示担忧的人和组织名单包括 Edward Snowden、电子前沿基金会、教授等。我们在这里收集了其中的一些反应,作为对苹果新政策的一些批评的概述。约翰霍普金斯大学副教授马修格林在该功能公开宣布之前对其进行了反击。他在推特上发表了关于 Apple 的计划以及哈希系统如何被政府和恶意行为者滥用的推文。

这些工具将允许 Apple 扫描您的 iPhone 照片以查找与特定感知哈希匹配的照片,如果出现太多照片,则将它们报告给 Apple 服务器。 — Matthew Green (@matthew_d_green) 2021 年 8 月 5 日 EFF 发表声明抨击 Apple 的计划,或多或少称其为“经过全面记录、仔细考虑且范围狭窄的后门”。 EFF 的新闻稿详细介绍了它认为 Apple 的儿童安全措施可能会被政府滥用的方式以及它们如何降低用户隐私。 Apple 对 iMessage 和 iCloud 的过滤并不是向后门倾斜,这些后门会抑制语音并降低我们的通信安全性。我们已经在那里了:这是一个完整的系统,只是在等待外部压力做出最细微的改变。 https://t.co/f2nv062t2n — EFF (@EFF) 2021 年 8 月 5 日,哈佛大学网络法律诊所的讲师肯德拉·阿尔伯特 (Kendra Albert) 发表了一篇关于酷儿儿童的潜在危险以及 Apple 最初对同性恋儿童年龄范围缺乏明确性的帖子。家长通知功能。父母是青少年谈论性或性交的安全人的想法令人钦佩,但在许多情况下,事实并非如此。 (据我所知,这些东西不仅仅适用于 13 岁以下的孩子。)

— Kendra Albert (@KendraSerra) 2021 年 8 月 5 日 EFF 报告说,如果孩子在 13 到 17 岁之间,iMessage 裸体通知将不会发送给父母,但这在我能找到的 Apple 文档中找不到。 https://t.co/Ma1BdyqZfW — 肯德拉·阿尔伯特 (@KendraSerra) 2021 年 8 月 6 日,爱德华·斯诺登转发了《金融时报》关于该系统的文章,并给出了他自己对苹果正在做的事情的描述。苹果计划修改 iPhone 以不断扫描违禁品:“这绝对是一个令人震惊的想法,因为它会导致对我们的手机和笔记本电脑进行分布式批量监控,”安全工程教授罗斯安德森说。 https://t.co/rS92HR3pUZ — 爱德华·斯诺登 (@Snowden) 2021 年 8 月 5 日 这是 Apple 历史上最糟糕的想法,我不会轻易说出来。它破坏了他们在隐私方面的可信度。它会被政府滥用。它将让同性恋儿童被杀害和断绝关系。这是有史以来最糟糕的想法。 https://t.co/M2EIn2jUK2

— Brianna Wu (@BriannaWu) 2021 年 8 月 5 日 声明:Apple 的扫描未检测到虐待儿童的照片。它检测添加到数据库中的已知禁止图像列表,这些图像最初是在其他地方流传的虐待儿童图像。随着时间的推移添加什么图像是任意的。它不知道孩子是什么。 — SoS (@SwiftOnSecurity) 2021 年 8 月 5 日作家马特·布拉兹 (Matt Blaze) 还发推文表示担心该技术可能会被过度政府滥用,试图阻止 CSAM 以外的内容。换句话说,不仅政策必须非常稳健,实施也必须非常稳健。 — matt blaze (@mattblaze) 2021 年 8 月 6 日 Epic 首席执行官蒂姆·斯威尼 (Tim Sweeney) 也批评苹果,称该公司“默认将每个人的数据都清空到 iCloud 中”。他还承诺分享更多关于 Apple 儿童安全系统的具体想法。

默认情况下,Apple 将每个人的数据清理到 iCloud 中,隐藏 15 多个单独的选项以在您的姓名下方的“设置”中关闭部分数据,并强迫您拥有不需要的电子邮件帐户,这太残忍了。 Apple 永远不会允许第三方发布这样的应用程序。 — 蒂姆·斯威尼 (@TimSweeneyEpic) 2021 年 8 月 6 日 然而,并非每一个反应都是至关重要的。 Ashton Kutcher(自 2011 年以来一直致力于结束儿童性交易的宣传工作)称 Apple 的工作是“向前迈出的重要一步”,旨在消除 CSAM。我相信隐私——包括那些被记录在案并未经同意在网上传播的儿童。 @Apple 宣布的这些努力是在从互联网上消除 CSAM 的斗争中向前迈出的重要一步。 https://t.co/TQIxHlu4EX — ashton kutcher (@aplusk) 2021 年 8 月 5 日