元学习的Meta-Post

2021-04-15 22:11:35

我一直试图写的LW帖子。我有几个未发表的草案版本。

我想要制作的重点是简单和简单的,但是当我试图写下来时,我担心我不是......就像,“消息”正确吗?没有醒目的语气?

当他们谈论GPT-3时,人们不会始终使用“元学习”一词。本文使用单向术语(并且它们是100%显式,他们在文中拼出了他们的定义),博客社区将其另一种方式使用。

博主兴奋/害怕GPT-3做了“元学习”,他们的意思是“一般推理没有训练的一般推理”。

如果你被这个能力兴奋/害怕(你应该是),那么你应该真正关心GPT-3是否实际上有,在多大程度上,能力尺度等程度。

有关这一主题的公众证据很少,因为论文是(明确的!)95%而不是关于这个话题的95%,其余5%是非常弱的证据,唯一的其他证据有......一些主观的用户印象? GWERN说“GPT-3有能力”中真正雄辩和有力的方式吗?

比这更严格地测试能力。这应该是为了完成,因为这个话题很重要。它只能由API Access(AI Dungeon不计数)的人完成。

但它...感到很难以一种实际说服任何不同意的人来说这一点?喜欢,

当我试图“为他们争辩”时,这些要点看起来很明显,我觉得迂给了迂回,就像我相信明显的话。我实际上要说“没有,几次射击从法语到英语的翻译并不是一般推理的一个例子?”当然没有人认为模型是......学习如何从〜2000的数据中讲法语?我是否必须引用纸质的一部分,在那里介绍了Meta-Learning意味着什么?它就在那里!你只需阅读论文!

在阅读本文后,我已经在原来的GPT-3帖子中占据了这个论点。所以(a)我觉得我重复自己和(b)如果这一点没有碰到那么,为什么现在呢?

到目前为止,有一个“仅限语义”的元素,并且很难澄清我的满意,我不只是在乎博客帖子正在使用错误。但我必须提出语义问题甚至描述我所说的话。

感觉不可避免地就像挑选GWERN的单词,因为博主圈对“GPT-3 Meta-Learning”基本上都追溯到GWERN的博客。我不在乎GWERN是否使用正确的单词,他只是由于封闭的API所拥有的主题中最详细的“主要来源”

我昨天正在考虑这个,因为@slatestarscratchpad将我的原始gpt-3帖子联系在他的4月份的Linkpost。我实际上坐下来写下另一个草稿和......不,再次放弃。

我注意到我能够在Tumblr上写下这个,根本没有问题。也许这是另一个证据表明,如果我有“真正的博客”,可以让我做得比我能做更多的“真正的博客”。

Raginrayguns说:我经常向Tumblr的回复帖子张贴在我写作的一个中的一个元水平。 “证据E用于假设H似乎弱”“”好的,但有证据表明,E 2,E₃......“看我写的关于e,你关心条件吗? 而且我正在尝试开始对这些来说非常简短的回复,比如“不相关,因为x”而不是向解释我真正谈论的东西。