对抗研究:ACL论文把BERT拉下神坛
2019-07-22 15:14

对抗研究:ACL论文把BERT拉下神坛

本文来自微信公众号:量子位(ID:QbitAI),作者:鱼羊、栗子,头图来自:东方IC,原标题:

把BERT拉下神坛!ACL论文只靠一个“Not”,就把AI阅读理解骤降到盲猜水平》


有一篇中选了ACL的论文,打击了以BERT为首的众多阅读理解模型。


研究人员认为,包括BERT在内,许多模型的成功都是建立在虚假的线索上



团队用了去年诞生的观点推理理解任务 (ARCT) 考验了BERT。结果发现,只要做个对抗数据集,准确率就从77%降到53%,几乎等同于随机猜。


预告一下,这里的对抗并不是把o变成0、把I变成1的小伎俩。实验说明,BERT是依靠数据集里“虚假的统计学线索 (Spurious Statistical Cues) ”来推理的。也就是说,它并不能真正分析出句子之间的逻辑关系


一、碎成渣渣


那么,BERT到底是败在了一项怎样的任务上?


观点推理理解任务 (ARCT) ,是Habernal和小伙伴们提出的阅读理解任务,考察的是语言模型的推理能力,中选了NAACL 2018。


一个观点,包含前提 (Premise) ,和主张 (Claim) 。除此之外,观点又有它的原因 (Reasoning) ,以及它的佐证 (Warrant)



在ARCT里面,AI要根据一个给定的观点,在两个选项里,找出正确的佐证。


两个佐证句十分接近,得出的主张却是完全相反。原始的ARCT数据集里,一共有2000个观点,配以它们的佐证。原本,BERT在这个数据集上表现优良,77%的最好成绩,只比未经训练的人类 (79.8%) 低不到3个百分点。



中位数,也在70%以上。可这样就能说明BERT拥有推理能力了么?为了研究BERT的选择是如何做出的,团队观察了AI眼中容易分类的那些数据点。结果发现,BERT是利用了一些线索词来判断,特别是“Not”这个词。



在两个选项里面,如果选择带有“Not”的佐证句,就有61%的概率是对的。并且,在所有正确答案里,有64%的佐证句都包含了“Not”。


这是最强大的一个线索词,但它和答案之间是虚假关系 (Spurious Relationship) ,并不是在逻辑上相关的。除此之外,其他的线索词还包括了“Is”“Do”“Are”等等。



为了证明“Not”这样的线索词,对AI的推理真的有影响,团队做了一个对抗数据集。具体方法是,给观点的主张 (Claim) 加上一个“Not”来否定;原因 (Reasoning) 不变;把佐证 (Warrant) 的两个选项,对错标签反过来填。就是把错误答案和正确答案对调。



拿修改过的数据集,再去考BERT。它的成绩就降到了盲猜水平:



研究人员觉得,将来再评估AI的阅读理解能力,也应该采纳这样的方法,如此才能测出语言模型的推理到底有多鲁棒。


二、前情:BERT有多神


在NLP领域,没有人不知道BERT的大名。BERT由谷歌推出,堪称2018年最火的NLP模型,甚至被称为NLP新时代的开端。


甫一亮相,BERT就在11项NLP任务上都取得了最顶尖的成绩,将GLUE基准提升7.6%,将MultiNLI的准确率提升5.6%。


哪怕是在XLNet等后来者的冲击之下,BERT在SQuAD2.0排行榜上仍处于霸榜的地位,前10名中有6位都是BERT的变体。其中第一名BERT + DAE + AoA的表现甚至超过了人类。



三、“不只一个数据集有问题”


这篇论文的结论给了NLP模型们当胸一击。BERT的秘密被揭穿,网友们纷纷表示这是非常值得深入探讨的一个议题。


作者本人在Reddit评论区补充说:


我们每隔几个月就会听到有关NLP的新进展,更新、更好的模型层出不穷。但当有人实际用数据集测试时,会发现这些模型并没有真正学习到什么。优化模型的竞赛该放缓脚步了,我们更应该仔细研究研究数据集,看看它们是否真的有意义。



作者还说,他并不否认BERT和其他新模型的价值,但是并不相信一些Benchmark。



有人直接贴出了另一篇ACL论文,说这两项研究得出的结论几乎一毛一样。


https://arxiv.org/abs/1902.01007


只不过,数据集不一样了。


这篇论文里BERT是在多类型语言推理数据集 (MNLI) 上训练的,而测试集则是研究团队自制的HANS数据集:



利用一些简单的句子变换,就能让AI做出错误的判断。于是,BERT在这个新数据集上又扑街了。也就是说,不止ARCT一个数据集,作为常用基准的MNLI也有类似的缺陷。


不过,也有人对主角论文的结论存疑:


这篇文章提出的观点过于笼统,只讨论了BERT的ARCT性能。


既然论文想说明,那些新的NLP模型通常什么意义都没学明白,就应该对更多基准进行测试。


显然我们用来判断模型表现的基准与人类判断不完全相关,但问题是目前并没有更好的判断标准。



论文地址:https://arxiv.org/abs/1907.07355


本文来自微信公众号:量子位(ID:QbitAI),作者:鱼羊、栗子

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定