帮助解码谷歌和Facebook使用的语言的词汇表,以便在不邀请更深层次的审查的情况下向公众保证AI责任

2021-04-14 13:36:14

AI研究人员经常说好的机器学习比科学更艺术。有效的公共关系可以说也是如此。选择正确的单词来击打一个积极的语气或重新谈论ai是一个微妙的任务:做得好,它可以加强一个人的品牌形象,但是做得很差,它可以触发更大的反弹。

科技巨头会知道。在过去的几年里,他们必须快速地学习这一艺术,因为他们面临着对他们的行为的越来越多,并强烈批评他们的AI研究和技术。

现在他们已经开发了一个新的词汇,以便他们希望向公众保证他们深深地关心一个负责任地关心AI - 但想要确保他们不邀请太多审查。这是一个有人解读语言的内部指南,并挑战烘焙的假设和价值。

问责制(n) - 当您的AI系统失败时,将其他人负责的行为。

准确性(n) - 技术正确性。评估AI模型性能的成功最重要的衡量标准。请参阅验证。

对手(N) - 一个能够破坏您强大的收入生成AI系统的孤独工程师。请参阅稳健性,安全性。

对齐(n) - 设计AI系统的挑战,这些系统执行我们告诉他们和重视我们的价值。故意抽象。避免使用有害意外后果的真实例子。见安全。

人工综合情报(短语) - 一个假设的AI上帝,可能在未来遥远,但也许迫在眉睫。可以真的很好或非常糟糕,以越来越多地有用。显然你正在建造好的。这是昂贵的。因此,你需要更多的钱。看到长期风险。

审核(n) - 您支付别人待您的公司或AI系统的审核,以便在不需要更改任何内容的情况下表现更透明。请参阅影响评估。

增强(v) - 增加白领工的生产率。副作用:自动化蓝领工作。悲伤但不可避免。

有益的(adj) - 毯子描述符,用于您正在尝试构建的内容。方便地玷污了。请参阅值。

通过设计(pH) - 如“通过设计的公平”或“按设计问责”。从一开始就发出信号思考重要事物的短语。

遵守(n) - 遵守法律的行为。任何不违法的东西都是。

数据贴图(pH) - 据称存在于亚马逊机械土耳其界面背后的人,以便为便宜的数据清洁工作。不确定他们是谁。从未见过他们。

民主化(v) - 以所有费用为规模的技术。专注于资源的理由。看到比例。

多样性,股权和包容性(pH) - 从边缘化群体的招聘工程师和研究人员的行为,以便您可以将它们视为公众。如果他们挑战现状,请射击它们。

效率(n) - 使用更少的数据,内存,员工或能量来构建AI系统。

道德委员会(pH) - 一群没有真正权力的顾问,召集创造贵公司积极倾听的外观。示例:谷歌的AI道德委员会(已取消),Facebook的监督委员会(仍然站立)。

道德原则(pH) - 一组用于发出良好意图的真实主义。保持高级。迷惑语言,更好。查看负责任的ai。

解释(adj) - 用于描述您,开发人员和用户可以理解的AI系统。对于它使用的人来说,更难实现。可能不值得努力。看解释。

公平性(n) - 用于描述无偏见的算法的公正性的复杂概念。可以根据您的偏好进行数十种方式定义。

对于良好的(pH) - 如“良好”或“良好数据”中的“AI”中。一项完全与您的核心业务完全切向的倡议,可帮助您产生良好的宣传。

远见(n) - 对未来的能力。基本上是不可能的:因此,为什么你不能摆脱你的AI系统的意外后果的原因完全合理的解释。

框架(n) - 一套做出决定的指导方针。在延迟实际决策的同时出现周到和测量的好方法。

更广泛的(adj) - 良好的AI模型的标志。继续在不断变化的条件下工作。看到现实世界。

以人为本的设计(pH) - 一个涉及使用“personas”来想象普通用户可能需要的AI系统的过程。可能涉及从实际用户征求反馈。只有在时间。看到利益相关者。

人类在循环(pH)中 - 任何人都是AI系统的一部分。责任范围从伪造系统的能力,以防御自动化的指控。

影响评估(pH) - 您对公司或AI系统做的审查,以表达您愿意考虑其缺点而不改变任何内容。见审计。

可解释(adj) - 对计算您,开发人员的AI系统的描述可以逐步遵循步骤以了解它的答案。实际上可能只是线性回归。 AI听起来更好。

完整性(n) - 破坏模型技术表现的问题或您公司的规模能力。不要与社会不好的问题混淆。不要与诚实混淆。

跨学科(adj) - 使用任何团队或项目的术语,涉及不编码的人:用户研究人员,产品经理,道德哲学家。特别是道德哲学家。

长期风险(n) - 在遥远的未来可能具有灾难性影响的坏事。可能永远不会发生,但更重要的是学习和避免而不是现有AI系统的直接危害。

合作伙伴(n) - 分享您的世界观的其他精英群体,可以与您合作以维护现状。看到利益相关者。

隐私权折扣(pH) - 对个人信息的崇高牺牲对AI驱动的保健进步,也恰好是高利可图的。

现实世界(pH) - 与模拟世界相反。充满活力的物理环境,充满了意想不到的意外,即AI模型训练以存活。不要与人类和社会混淆。

条例(n) - 您所呼吁转移对政策制定者的有害AI减轻有害AI的责任。 不要与会阻碍你的增长的政策混淆。 负责任的AI(n) - 贵公司任何工作的绰号,可能会被公众解释为严格努力减轻您的AI系统的危害。 鲁棒性(n) - AI模型在邪恶的尝试中始终如一,准确地运作它的能力,以便为其损坏数据。 安全(n) - 建立从设计师的意图中没有流氓的AI系统的挑战。 不要与构建不会失败的AI系统混淆。 请参阅对齐。 规模(n) - 任何良好的AI系统都应该努力实现的事实上的最终状态。 安全性(n) - 保护有价值或敏感数据和AI模型的行为由不良演员突破。 见对手。 利益相关者(n) - 股东,监管机构,用户。 你想要快乐的人。

透明度(n) - 揭示您的数据和代码。对专有和敏感信息不好。因此真的很难;坦率地说,甚至不可能。不与清晰的沟通混淆,了解系统如何实际工作。

值得信赖的(adj) - 评估可以用足够的协调宣传制造的AI系统。

普遍基本收入(pH) - 支付每个固定工资的想法将解决自动化导致普遍失效时造成的巨大经济动荡。受到2020年总统候选人安德鲁杨的推广。看到财富再分配。

验证(n) - 在培训的数据之外测试AI模型的过程,以检查它仍然准确。

价值(n) - 为您的用户提供的无形益处,使您成为很多钱。

财富再分配(pH) - 当人们用太多资源仔细检查你时,一个有用的想法,以便使用太多资源和太多钱。财富如何再分配工作?当然,普遍的基本收入。也不能弄清楚自己的东西。需要规定。看规则。

扣留出版物(pH) - 选择不打开代码的仁慈行为,因为它可能落入坏演员的手中。更好地限制能够负担得起的合作伙伴。