根据欧盟计划,大型科技公司的“黑匣子”算法面临监管监督

2020-10-31 03:34:21

欧盟委员会执行副总裁玛格丽特·维斯特格(Margrethe Vestager)在今天的一次演讲中表示,算法责任将是即将到来的立法数字一揽子计划的关键一环-即将出台的规则草案将要求平台解释他们的推荐系统是如何工作的,并给予用户更多的控制权。

“我们正在准备的规则将赋予所有数字服务与监管机构合作的责任。当监管机构要求时,最大的平台将不得不提供更多关于其算法工作方式的信息,“她表示。她补充称,平台还将”不得不让监管机构和研究人员访问它们持有的数据--包括广告档案“。

虽然Facebook等社交媒体平台在监管要求之前就已经建立了广告档案,但第三方研究人员仍在抱怨这些信息是如何构建的,以及独立研究如何(In)获取这些信息。

佩尔·维斯特格(Per Vestager)在本周早些时候的另一次演讲中也预览了数字服务法案(Digital Services Act)和数字市场法案(Digital Markets Act)中即将出台的内容,为用户提供更多关于广告定向的信息是另一个计划中的要求,以及对平台解释内容审核决定的更高报告要求。

对于“黑盒”算法可能会对个人和社会产生破坏性影响的担忧,地方立法者正在做出回应-这些影响来自于它们处理数据的方式以及对信息的排序和排名,带来的风险包括歧视、放大偏见和滥用针对弱势个人和群体的风险。

欧盟委员会表示,它正在制定具有约束力的透明度规则,目的是迫使科技巨头对其平台放大和货币化的内容承担更多责任。虽然问题在于要求的细节以及它们将如何有效地执行-但计划草案将在一个月左右到期。

维斯特格今天在非营利性研究倡导组织AlgorithmWatch组织的一次活动上发表演讲时表示:“我们将在12月提出的数字服务法案的主要目标之一将是保护我们的民主,确保平台对这些算法的工作方式是透明的-并让这些平台对他们做出的决定更加负责。”

“我们正在研究的提案将意味着,平台必须告诉用户,他们的推荐系统是如何决定展示哪些内容的--这样我们就更容易判断是否相信他们给我们的世界图景。”

根据计划中的规则,最强大的互联网平台-用欧盟的话说就是所谓的“看门人”-将必须定期提供报告,说明“他们使用的内容审查工具,以及这些工具的准确性和结果”,正如维斯塔格所说。

对广告定向的具体披露要求也将超出Facebook等平台目前可能已经提供的模糊披露(在Facebook的情况下,是通过“为什么我看到这个广告?”菜单)。

她说,必须提供“更好的信息”,比如平台告诉用户“是谁投放了某个广告,以及它为什么针对我们”。她补充说,总体目标将是确保这类平台的用户“更好地了解谁在试图影响我们-以及更好地发现算法何时歧视我们”。

今天,由AlgorithmWatch领导的一个由46个公民社会组织组成的联盟敦促欧盟委员会确保即将出台的立法中的透明度要求是“有意义的”-呼吁它引入“全面的数据访问框架”,为监督机构提供追究平台责任所需的工具,并使记者、学者和公民社会能够“挑战和审查权力”。

该小组的一系列建议呼吁:基于主要平台的技术功能,承担具有约束力的披露义务;建立一个“具有明确法律授权,能够获取数据并执行透明度义务”的单一欧盟机构;以及确保数据收集符合欧盟数据保护规则的条款。

另一种重新平衡数据挖掘平台巨头与他们追踪、分析和瞄准的个人之间权力不对称的方法可能涉及要求用户如果愿意的话,完全关闭算法馈送-选择退出数据驱动的歧视或操纵的可能性。但欧盟立法者是否会在即将出台的立法提案中走那么远仍有待观察。

维斯特格在这方面提供的唯一暗示是,计划中的规则“也将赋予用户更大的权力-因此,对于我们可以看到什么,我们没有看到什么,算法没有最终决定权”。

她还表示,平台还必须让用户“有能力影响推荐系统代表我们做出的选择”。

在进一步的言论中,她证实,围绕内容审查和删除,将对数字服务提出更详细的报告要求-表示,当用户删除内容时,他们将不得不告知用户,并赋予他们“挑战删除的有效权利”。尽管欧盟各国公众普遍支持重启数字巨头的游戏规则,但也有强烈的观点认为,监管不应影响在线言论自由-例如鼓励平台通过应用上传过滤器或在没有正当理由的情况下删除有争议的内容来降低监管风险。

这些提案将需要欧盟成员国通过欧洲理事会(European Council)和欧洲议会选举产生的代表的支持。

后者已经投票支持对广告定向实施更严格的规定。欧洲议会议员还敦促欧盟委员会拒绝对有害或非法内容使用上传过滤器或任何形式的事前内容控制,称关于内容是否合法的最终决定应由独立的司法机构做出。

与此同时,欧盟委员会正在努力制定专门针对使用人工智能的应用程序的规则-但这一立法方案要到明年才会到期。

维斯特格证实,该系统将于2021年初推出,目的是创建“一个信任的人工智能生态系统”。