最近几年 NLP 的高速发展,其相关技术和应用都取得辉煌的成绩,清华大学的 Aminer 团队在 2018 年 7 月发布了 NLP 研究报告,从 NLP 的概念、技术、人才、应用以及发展趋势五个方面总结 NLP 的发展历程和所取得成绩。那么,在过去这一年中,NLP 取得了哪些发展呢?
提到 2018 年自然语言处理(NLP)的成就,BERT 将会首先映入眼帘,其性能横扫了多种不同的 NLP 测试,被誉为 NLP 新时代的开端。然而,2018 年并不是只有 BERT,无论是学术研究还是在企业应用,同样还有许多激动人心的想法和让人眼前一亮的应用。本文是 AI 前线年终盘点自然语言处理专题系列文章之技术与应用篇,我们将逐一盘点和总结这些想法和应用。
学术研究是技术发展的先行者,我们首先来看看 2018 年 NLP 学术研究都有哪些令人激动的想法。爱尔兰的 NLP 研究科学家 Sebastian Ruder 盘点了 2018 年 NLP 领域的十大想法,在保留其原文的框架基础上,我们对内容进行了重新编辑和补充。
EMNLP 2018 上,Guillaume Lample 等人提炼出了无监督机器翻译的三个关键方法:良好的初始化、语言建模和逆向任务建模 (通过反向翻译),大幅改进了之前的研究方法,无监督机器翻译获得了重大进展。这三个方法在其他无监督场景中也有用。逆向任务建模可以增强循环一致性,这种一致性已经在不同的方法中得到应用,在 CycleGAN 中最为突出。
这是 NLP 领域今年最重要的发展趋势。有很多令人难忘的方法:ELMo、ULMFiT、OpenAI Transformer 和 BERT。这里主要介绍 ELMo 和 BERT 两个模型。ELMo(语言模型的词嵌入):出自艾伦人工智能研究院和华盛顿大学的论文“Deep contextualized word representations”,NLP 顶会 NAACL HLT 2018 的优秀论文之一,受到了广泛好评。ELMo 用语言模型来获取词嵌入,同时也把词语所处句、段的语境考虑进来。这种语境化的词语表示,能够体现一个词在语法语义用法上的复杂特征,也能体现它在不同语境下如何变化。除了实证结果令人印象深刻之外,最引人注目的是论文的分析部分,它剔除了各种因素的影响,并对在表征中捕获的信息进行了分析。词义消歧分析执行得很好。两者都表明了,语言模型提供的词义消歧和词性标注表现都接近最先进的水平。
BERT: 它由 Google 推出,全称是 Bidirectional Encoder Representations from Transformers,意思是来自 Transformer 的双向编码器表示,也是一种预训练语言表示的方法。BERT 模型沿袭了 GPT 模型的结构,采用 Transfomer 的编码器作为主体模型结构。Transformer 舍弃了 RNN 的循环式网络结构,完全基于注意力机制来对一段文本进行建模。模型的主要创新点都在 pre-train 方法上,即用了 Masked LM 和 Next Sentence Prediction 两种方法分别捕捉词语和句子级别的 representation。从性能上来看,没有哪个模型能与 BERT 一战。目前,BERT 在 11 项 NLP 任务上都取得了最顶尖成绩。
将常识融入到模型中,是 NLP 最重要的前进方向之一。然而,创建一个好的数据集并不容易,即便是流行的数据集,也存在很大的偏差。而来自于华盛顿大学 Event2Mind 和 SWAG 试图教模型一些常识,虽然 SWAG 很快被 BERT 超越了,但依然是一个很重要的想法。例如首个视觉 QA 数据集“Visual Commonsense Reasoning”,每个答案都包含对答案的解释,且每个问题需要复杂的推理。创作者想尽办法解决可能存在的偏差,确保每个答案的正确率为 25% (每个答案在整个数据集中出现 4 次,错误答案出现 3 次,正确答案出现 1 次)。在创建数据集的过程中,需要使用计算相关性和相似性的模型来解决约束优化问题,以防止可能出现的偏差会成为一个常识。
元学习在少样本学习、强化学习和机器人学习中得到了广泛的应用,最突出的例子是与模型无关的元学习 ( MAML )。但在 NLP 领域,元学习很少有成功的应用。其实在解决样本数量有限的问题上,元学习非常有用,尤其是将多语言迁移学习 (如多语言 BERT )、无监督学习和元学习相结合起来的时候,这是一个非常有希望取得进展的方向。发表于 EMNLP 2018 上的论文“Meta-Learning for Low-Resource Neural Machine Translation”就使用了 MAML,即将每一种“语言对 ”都视为单独的元任务。在 NLP 领域,用来适应资源较少的语言,可能是元学习的最佳用武之地了。
在迁移学习中,源和目标设置之间的差异 (例如,领域适应、持续学习和多任务学习中的任务) 会导致模型的效果变差或崩溃。即当语言不相似时,无监督的跨语言单词嵌入方法会导致模型崩溃。面对这种变化时,如何让模型更加稳健是很重要的。ACL 2018 的论文“A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings” 利用他们对问题的理解来设计更好的初始化,而不是将元学习应用到初始化上。比较亮眼的是,他们将两种语言中分布相似的单词配对。这一个例子证明了可以利用领域专业知识和分析见解使模型更加稳健。
为了更好地理解表征,研究者已经做了很多努力。特别是“诊断分类器”(diagnostic classifiers)(旨在测量学习到的表征能否预测某些属性的任务) 已经变得非常普遍了。在理解表征方面,EMNLP 2018 上论文“Dissecting Contextual Word Embeddings: Architecture and Representation” 精心设计的无监督和有监督的任务中对单词和跨度表征进行了广泛的研究学习。实验结果表明预训练表征学习任务在较低层和较高层比较长的语义范围中,与低层次的形态与句法任务相关。这实际上表明,预训练语言模型,确实捕捉到了与在 ImageNet 上预处理的计算机视觉模型相似的特性。
在许多场景中,越来越多的学者使用多任务学习和精心选择的辅助任务。对于一项好的辅助任务来说,数据必须易于访问。一个最突出的例子是 BERT,它使用下一句预测 (在 Skip-thoughts 中使用过,最近在 Quick-thoughts 使用) 取得了很大的效果。除 BERT 外,发表于 EMNLP 2018 上论文“Syntactic Scaffolds for Semantic Structures” 提出了一个辅助任务,通过预测每个跨度对应的句法成分类型,来预处理跨度表征。尽管从概念上来说很简单,但是辅助任务在推动跨度预测任务出现大幅度改进方面很重要,例如语义角色标注和共指解析。这篇论文证明了,在目标任务所要求的水平上学习专门的表征非常有用。而论文“pair2vec: Compositional Word-Pair Embeddings for Cross-Sentence Inference (arXiv 2018)” 基于相似的脉络,通过最大化“词对”与其语境之间的点互信息来预训练“词对”表征。 这激励了模型去学习更多有意义的“词对”表征,而不是更通用的目标,比如语言建模。对于需要跨句子推理的任务,如 SQuAD MultiNLI,预训练表征是有效的。将来或许可以看到更多的预训练任务,能够捕捉特别适合于某些下游任务的属性,并与更多通用任务 (如语言建模) 相辅相成。
实际上,预训练表征与许多半监督学习表征的方法是互补的。已经有学者探索了自我标注的方法,这是一种特殊类型的半监督学习。论文“Semi-Supervised Sequence Modeling with Cross-View Training (EMNLP 2018)” 展示了一个在概念上非常简单的想法,确保对不同输入观点的预测与主模型的预测一致,可以在不同的任务集合中获得收益。这个想法类似于单词 dropout,但是可以利用未标记的数据来使模型更加稳健。与其他自组合模型相比,它是专门为特定的 NLP 任务设计的。
在问答系统中,除了对话式问答和多步推理,问答最具挑战性的方面是综合叙述和处理大体量信息。TACL 2018 上的论文“The NarrativeQA Reading Comprehension Challenge” 基于对整部电影剧本和书籍问题的回答,提出了一个具有挑战性的新 QA 数据集。虽然依靠目前的方法仍无法完成这项任务,但模型可以选择使用摘要 (而不是整本书) 作为语境来选择答案 (而不是生成答案)。这些变体使完成任务更加可行,并使模型能够逐步扩展到完整的语境。
归纳偏差,如 CNN 中的卷积、正则化、dropout 和其他机制,是神经网络模型的核心部分,它们起到调节器的作用,使模型更具样本效率。然而,提出一个应用更加广泛的归纳偏差方法,并将其融入模型是一个挑战。有幸的是在 2018 的研究中有了这一类的相关成果。论文“Sequence classification with human attention (CoNLL 2018)”提出利用视觉跟踪语料库中的人类注意力来规范视觉神经网络中的注意力。考虑到当前许多模型(如 Transformers)也使用注意力,找到更有效地训练它的方法是一个重要的方向。另外, 论文还证明了人类语言学习可以帮助改进计算模型。而 2018 年 EMNLP 上的最佳论文之一“Linguistically-Informed Self-Attention for Semantic Role Labeling”提出了将 multi-head self-attention 与多任务学习相结合的模型,该模型可以仅使用原始的 token 对序列进行一次编码,来同时执行多个预测任务。论文中还通过训练一个注意力头来关注每个 token 的句法父项,使 Transformer 的多头注意力对句法更加敏感。
总体说来,NLP 作为认知智能的重要组成部分,依然是人工智能领域研究的重要课题,而 2018 年也取得了成绩,也让我们对未来 NLP 研究充满了希望。
伴随着 NLP 研究的不断深入,其应用也变得越来越广泛,尤其是在知识图谱、机器翻译、阅读理解和智能写作等方面都有较为成熟的应用。
由于知识图谱能够让人工智能具备认知能力和逻辑能力,进而实现智能分析、智能搜索、人机交互等场景应用,而这一优势使得知识图谱可以应用于科研、金融、医疗、司法、公共安全等各个领域。2018 年以来,百度应用知识图谱率,实现了智能搜索;阿里健康启动医学知识图谱,与国家级医疗健康大数据平台等机构在京宣布启动医学智库“医知鹿”,而腾讯也推出了首款医疗 AI 引擎“腾讯睿知”发力智能导诊;美团通过构建其知识图谱实现以实现智能化的生活服务;招商银行总行的知识图谱项目也成果落地上线,预示着知识图谱在金融领域的应用正不断成熟;而在汽车领域,汽车之家通过构建汽车领域知识图谱,为其 APP“家家小秘”实现了图谱问答。总之,知识图谱的行业应用,会让内容更加精准,服务更加智能,也逐渐成为了各领域的数据和技术核心。
随着深度学习在机器翻译的成功应用,以及实时的语音转文字和文字转语音功能的成熟,模型翻译的水平得到了很大的提高,很大程度上的解决了对话中的翻译问题。为此,翻译机在 2018 年成为了人们关注的热点,除了之前我们熟悉的谷歌、百度、网易等在线翻译外,2018 年 6 月 13 日,谷歌发布离线神经机器翻译技术( Neural Machine Translation),使得离线状态下 ,也能用 AI 翻译,且支持 59 种语言;2018 年 9 月,网易有道自研离线神经网络翻译技术,并应用于发布的翻译智能硬件“有道翻译王 2.0Pro”;2018 年 9 月,搜狗推出最新款时尚 AI 翻译机——搜狗翻译宝 Pro,支持 42 种语言实时互译及中英日韩 4 种语言离线翻译;2018 年 10 月,百度推出实时将英语翻译成中文和德语的人工智能即时翻译工具。机器翻译作为 NLP 最为人知的应用场景,其产品正逐渐成为人们生活的必需品,因此机器翻译任然蕴含着巨大的市场价值,让众多厂商为之心动,同时也必然会使得机器翻译越来越成熟。
阅读理解方作为复杂的 NLP 技术之一,受到了广大学者和企业的关注,同时也已经开始商业化。2018 年 8 月,“考拉阅读”宣布完成融资 2000 万美金,并将此次融资用于考拉阅读原创“中文分级阅读系统 ER Framework”的优化升级、优质阅读内容的生产聚合及市场规模的扩大;在近期举办的 MS MARCO 文本阅读理解挑战赛中,阿里 AI 模型在英文阅读理解比赛中超过了微软、百度等研究机构,排名第一,而这一技术也已经大规模应用与淘宝、天猫以及东南亚电商 Lazada 等产品中。阅读理解作为继语音判断和语义理解之后的又一主要挑战,需要模型理解全文语境,同时还需要理解和关注词汇、语句、篇章结构、思维逻辑、辅助语句和关键句等元素,并可以直接作用于现实中的文本资料中,其价值不言而喻。也因为这个原因,使得 MS MARCO 文本阅读理解挑战赛变的如此激烈。
智能创作通过深度学习模型获取创作的背景知识和创作方法,并根据主题自动生成作品,以辅助或替代人工创作。其中印象最为深刻的便是腾讯写稿机器人“Dreamwriter” ,在俄罗斯世界杯足球赛期间,Dreamwriter 生产一篇稿子平均只要 0.46 秒,而且写法越来越类人化,不再是冷冰冰的;除此之外,百度在 1 月的百家号内容创作者盛典上宣布推出人工智能写作辅助平台“创作大脑”,为人类作者提供纠错、提取信息等各种辅助工作,其基于语义的智能纠错功能识别准确率达到了 95% 以上,能实现相当于大学生平均水平的纠错能力;2018 年 5 月,微软小冰宣布“演唱深度学习模型完成第四次重大升级,演唱水平接近人类,且开始向作词、作曲、演唱全面发展;2018 年 6 月,IBM Research 推出 AI 系统 Project Debator,在旧金山 IBM 办公室,人工智能在一场辩论赛中击败了人类顶尖辩手,Project Debater 通过处理大量文本,就特定主题构建出有良好结构的演讲,提供清晰明确的目的,并反驳其对手,它的对手是以色列国际辩论协会主席 Dan Zafrir 和 2016 年以色列国家辩论冠军 Noa Ovadia。智能创作几乎需要集成目前所有的 NLP 技术,也侧面体现了各公司 NLP 技术综合实力,因此智能创造也备受各企业的关注。
除了以上热门的应用之外,智能问答和语音处理依然是 NLP 的热门应用。2018 年以来,各厂商也都相继更新换代,例如腾讯在最近推出了一款全新的“腾讯叮当智能视听屏”,就成功打破了智能音箱和智能显示设备之间的隔膜,成功的将两者完美的结合在了一起;而在刚刚结束的 2018 年 AICon 上,智能对话和语音处理依然是人们主题之一。NLP 的成熟应用,让智能应用的关键一步,不仅可以解放人力,同时也带来了更好的用户体验。
2018 年,无论是 NLP 的研究还是应用,都十分热闹。NLP 研究的内容逐渐趋近于模型的可解释性和预训练,说明 NLP 的研究已经进入了深水区。而在应用方面,我们看到微软、谷歌、百度等巨头的竞争格局已经形成,同时各垂直领域也相继推出相应的产品,例如汽车之家的家家小秘、蔚来的 nomi 等,另外不少后起公司凭借自己的努力也有望向巨头发起挑战,例如竹间科技、思必驰等。
NLP 涉及了计算机、数学、统计学、语言学以及脑神经科学等领域的知识,为了不断的提升 NLP 技术,我们仍然需要 NLP 相关方面和领域的研究人员和企业继续努力,讲求研究和应用并举,普及与提高同步。我们希望看到各领域、各企业的专家、学者、工程师通力合作,共同创作另一个辉煌的 NLP 时代。
雷涛,高级算法工程师,汽车之家智能聊天机器人算法负责人。博士毕业于北京邮电大学大学网络技术学院,主要从事智能聊天机器人相关技术研发,致力于机器学习、深度学习、NLP 相关算法在智能聊天机器人领域的落地应用。
-
标签: