AI盒

2020-12-16 21:30:06

Warning: Can only detect less than 5000 characters

装箱这种假想的AI可以通过其他塑造AI能力的方法进行补充,例如对AI进行激励,阻碍AI的发展或实施Tripwires。如果以某种方式检测到违规尝试,则会自动关闭AI。但是,系统越智能化,即使是最佳设计的功能控制方法,系统也越有可能逃脱。 [11] [12]为了解决总体"控制问题"对于超级智能的AI并避免存在的风险,拳击最多只能作为"动机选择"的辅助手段旨在确保超级智能AI目标与人类生存相适应的方法。 [7] [1]

所有的物理拳击提议自然都取决于我们对物理定律的理解。如果超级智能可以推断出并以某种方式利用我们目前未意识到的其他物理定律,则无法构想出一个包含它的万无一失的计划。更广泛地说,与传统的计算机安全性不同,尝试装箱超级智能的AI具有内在的风险,因为无法确定装箱计划是否有效。从根本上来说,拳击的科学进步将非常困难,因为在存在这样的实体之前,没有办法针对危险的超智能测试拳击假设,否则测试失败的后果将是灾难性的。 [6]

2015年的电影《 Ex Machina》中,一具AI的女性类人生物与一个男性在一个封闭的建筑物内进行社交实验,该物理建筑物充当物理“ AI盒子”。尽管受到实验组织者的监视,但AI还是设法通过操纵其人类伴侣来帮助其逃脱,而将他困在里面。 [13] [14]

^ a b查默斯,大卫。 "奇点:哲学分析。意识研究杂志17.9-10(2010):7-65。

^ I.J. Good,关于第一台超智能机器的猜测,],计算机的进步,第一卷。 1965年6月6日。

^文森特C.Müller和尼克Bostrom。 "人工智能的未来进展:专家意见调查"人工智能的基本问题。 Springer 553-571(2016)。

^罗素,斯图尔特J .;诺维格·彼得(2003)。 "第26.3节:开发人工智能的伦理与风险。人工智能:一种现代方法。新泽西上萨德尔河:普伦蒂斯·霍尔(Prentice Hall)。 ISBN 978-0137903955。同样,马文·明斯基(Marvin Minsky)曾经建议,旨在解决黎曼假设的AI程序最终可能会占用地球的所有资源,以构建功能更强大的超级计算机来帮助实现其目标。

^ Yampolskiy,Roman V."与奇异悖论怎么办?"人工智能哲学与理论5(2012):397。

^ a b c Hsu,Jeremy(2012年3月1日)。一位专家说,先控制危险的AI来控制我们。 NBC新闻。

^ a b c Bostrom,尼克(2013)。 "第9章:控制问题:拳击方法。超级智能:即将到来的机器智能革命。牛津:牛津大学出版社。 ISBN 9780199678112。

^阿姆斯特朗,斯图尔特;桑德伯格,安德斯;尼克·博斯特罗姆(2012年6月6日)。 "深入思考:控制和使用Oracle AI"。头脑和机器。 22(4):299–324。 CiteSeerX 10.1.1.396.799。 doi:10.1007 / s11023-012-9282-2。

^ Yudkowsky,Eliezer(2008年10月8日)。 "闭嘴,做不可能的事!" 。除了链接页面上描述的实验之外,还有另外三个AI-Box实验,我再也没加进去。...因此,在进行调查以确保他们有能力输掉它之后,我又玩了三个AI-Box实验。我赢了第一个,然后输了第二个。然后我叫停了。

^ Vinge,Vernor(1993)。 "即将到来的技术奇点:如何在后人类时代生存。愿景21:网络空间时代的跨学科科学与工程:11-22。我认为禁闭本质上是不切实际的。对于物理禁闭的情况:想象一下,您只能在有限的数据访问范围内限制您的房屋,而仅限外部访问。如果那些大师以比您慢一百万倍的速度思考,那么毫无疑问,在几年(您的时间)内,您会想到“有用的建议”。那会顺带让你自由。

^ Yampolskiy,Roman(2012)。 "泄漏奇异性人工智能禁闭问题"。意识研究杂志:194–214。

^罗宾斯,马丁(2016年1月26日)。 "人工智能:诸神,自负者和Ex Machina"。 守护者 。 ^ Achenbach,Joel(2015年12月30日)。 " " Ex Machina" 和厄运的回形针。 华盛顿邮报 。