NLP顶会NAACL最佳论文出炉!谷歌BERT不负众望获最佳长论文

hzqadmin 阅读:13 2024-08-22 20:25:10 评论:0

【新智元导读】自然语言处理顶会NAACL近日公布了本届会议的最佳论文,谷歌BERT论文获得最佳长论文,可谓名至实归。

自然语言处理四大顶会之一 NAACL 2019 将于 6 月 2 日 - 7 日在美国明尼阿波利斯市举行。

据官方统计,NAACL 2019 共收到 1955 篇论文,接收论文 424 篇,录取率仅为 22.6%。其中长论文投稿 1198 篇,短论文 757 篇。

今天,大会揭晓了本届会议的最佳论文奖项,包括最佳专题论文、最佳可解释NLP论文、最佳长论文、最佳短论文和最佳资源论文。

其中,谷歌 BERT 论文获得最佳长论文奖项,可谓名至实归。

最佳长论文:谷歌BERT模型

最佳长论文(Best Long Paper)

BERT: Pretraining of Deep Bidirectional Transformers for Language UnderstandingJacob Devlin, Ming-Wei Chang, Kenton Lee and Kristina Toutanovahttps://arxiv.org/abs/1810.04805

谷歌 AI 团队在去年10月发布的 BERT 模型,在机器阅读理解顶级水平测试 SQuAD1.1 中表现出惊人的成绩:全部两个衡量指标上全面超越人类!并且还在 11 种不同 NLP 测试中创出最佳成绩,包括将 GLUE 基准推至 80.4%(绝对改进 7.6%),MultiNLI 准确度达到 86.7% (绝对改进率 5.6%)等。

自BERT模型发布以来,许多基于BERT的改进模型不断在各种NLP任务刷新成绩。毫不夸张地说,BERT 模型开启了 NLP 的新时代!

首先来看下谷歌 AI 团队做的这篇论文

BERT 的新语言表示模型,它代表 Transformer 的双向编码器表示。与最近的其他语言表示模型不同,BERT 旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的 BERT 表示可以通过一个额外的输出层进行微调,适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。

论文作者认为现有的技术严重制约了预训练表示的能力。其主要局限在于标准语言模型是单向的,这使得在模型的预训练中可以使用的架构类型很有限。

在论文中,作者通过提出 BERT:即 Transformer 的双向编码表示来改进基于架构微调的方法。

BERT 提出一种新的预训练目标:遮蔽语言模型(masked language model,MLM),来克服上文提到的单向性局限。MLM 的灵感来自 Cloze 任务(Taylor, 1953)。MLM 随机遮蔽模型输入中的一些 token,目标在于仅基于遮蔽词的语境来预测其原始词汇 id。

与从左到右的语言模型预训练不同,MLM 目标允许表征融合左右两侧的语境,从而预训练一个深度双向 Transformer。除了遮蔽语言模型之外,本文作者还引入了一个 “下一句预测”(next sentence prediction)任务,可以和 MLM 共同预训练文本对的表示。

预训练模型架构的差异。BERT 使用双向 Transformer。OpenAI GPT 使用从左到右的 Transformer。ELMo 使用经过独立训练的从左到右和从右到左 LSTM 的串联来生成下游任务的特征。三个模型中,只有 BERT 表示在所有层中共同依赖于左右上下文。

最佳专题论文:减轻机器学习系统的偏见

最佳专题论文(Best Thematic Paper)

What’s in a Name? Reducing Bias in Bios Without Access to Protected AttributesAlexey Romanov, Maria DeArteaga, Hanna Wallach, Jennifer Chayes, Christian Borgs, Alexandra Chouldechova, Sahin Geyik, Krishnaram Kenthapadi, Anna Rumshisky and Adam Kalaihttps://128.84.21.199/abs/1904.05233

越来越多的研究提出了减轻机器学习系统偏见的方法。这些方法通常依赖于对受保护属性(如种族、性别或年龄)的可用性。

然而,这提出了两个重要的挑战

(1)受保护的属性可能不可用,或者使用它们可能不合法;

(2)通常需要同时考虑多个受保护的属性及其交集。

在减轻职业分类偏见的背景下,我们提出了一种方法,用于阻隔个人真实职业的预测概率与他们名字的单词嵌入之间的相关性。

这种方法利用了词嵌入中编码的社会偏见,从而无需访问受保护属性。最重要的是,这种方法只要求在训练时访问个人姓名,而不是在部署时。

我们使用了一个大规模的在线传记数据集来评估我们提出的方法的两种变体。我们发现,这两种变体同时减少了种族和性别偏见,而分类器的总体真实阳性率几乎没有降低。

最佳可解释NLP论文:用量子物理的数学框架建模人类语言

最佳可解释NLP论文 (Best Explainable NLP Paper)

CNM: An Interpretable Complex-valued Network for MatchingQiuchi Li, Benyou Wang and Massimo Meluccihttps://128.84.21.199/abs/1904.05298

本文试图用量子物理的数学框架对人类语言进行建模。

这个框架利用了量子物理中精心设计的数学公式,将不同的语言单元统一在一个复值向量空间中,例如,将单词作为量子态的粒子,句子作为混合系统。我们构建了一个复值网络来实现该框架的语义匹配。

由于具有良好约束的复值组件,网络允许对显式物理意义进行解释。所提出的复值匹配网络(complex-valued network for matching, CNM)在两个基准问题回答(QA)数据集上具有与强大的CNN和RNN基线相当的性能。

最佳短论文:视觉模态对机器翻译的作用

最佳短论文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine TranslationOzan Caglayan, Pranava Madhyastha, Lucia Specia and Loïc Barraulthttps://arxiv.org/abs/1903.08678

目前关于多模态机器翻译(MMT)的研究表明,视觉模态要么是不必要的,要么仅仅是有帮助的。

我们假设这是在任务的惟一可用数据集(Multi30K)中使用的非常简单、简短和重复的语句的结果,其中源文本被呈现为上下文。

然而,在一般情况下,我们认为可以将视觉信息和文本信息结合起来进行实际的翻译。

在本文中,我们通过系统的分析探讨了视觉模态对最先进的MMT模型的贡献。我们的结果表明,在有限的文本上下文中,模型能够利用视觉输入生成更好的翻译。这与当前的观点相矛盾,即要么是因为图像特征的质量,要么是因为它们集成到模型中的方式,MMT模型忽视了视觉模态。

最佳资源论文:常识性问答的新数据集

最佳资源论文(Best Resource Paper)

CommonsenseQA: A Question Answering Challenge Targeting Commonsense KnowledgeAlon Talmor, Jonathan Herzig, Nicholas Lourie and Jonathan Beranthttps://arxiv.org/abs/1811.00937

在回答一个问题时,除了特定的上下文外,人们往往会利用他们丰富的世界知识。

最近的工作主要集中在回答一些有关文件或背景的问题,很少需要一般常识背景。

为了研究基于先验知识的问答任务,我们提出了CommonsenseQA:一个具有挑战性的用于常识性问答的新数据集。

为了获取超出关联之外的常识,我们从ConceptNet (Speer et al.,2017)中提取了与单个源概念具有相同语义关系的多个目标概念。参与者被要求撰写多项选择题,其中要提到源概念,并依次区分每个目标概念。这鼓励参与人员创建具有复杂语义的问题,这些问题通常需要先验知识。

我们通过这个过程创建了12247个问题,并用大量强大的基线说明了我们任务的难度。我们最好的基线是基于BERT-large (Devlin et al.,2018)的,获得56%的准确率,远低于人类表现,即89%的准确度。

分享到:

本文 zblog模板 原创,转载保留链接!网址:http://fsxxzx.com/post/3738.html

可以去百度分享获取分享代码输入这里。
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

关注我们

扫一扫关注我们,了解最新精彩内容

标签列表