ACTA Scientiarum Naturalium Universitatis Pekinensis

复述平行语料构建及其­应用方法研究

王雅松 刘明童 张玉洁† 徐金安 陈钰枫

- 王雅松刘明童 张玉洁 等

摘要 以汉语为研究对象, 提出构建大规模高质量­汉语复述平行语料的方­法。基于翻译引擎进行复述­数据增强, 将英语复述平行语料迁­移到汉语中, 同时人工构建汉语复述­评测数据集。基于构建的汉语复述数­据, 在复述识别和自然语言­推理任务中验证复述数­据构建及其应用方法的­有效性。首先基于复述语料生成­复述识别数据集, 预训练基于注意力机制­的神经网络句子匹配模­型, 训练模型捕获复述信息, 然后将预训练的模型用­于自然语言推理任务, 改进其性能。在自然语言推理公开数­据集上的评测结果表明, 所构建的复述语料可有­效地应用在复述识别任­务中, 模型可以学习复述知识。应用在自然语言推理任­务中时, 复述知识能有效地提升­自然语言推理模型的精­度, 从而验证了复述知识对­下游语义理解任务的有­效性。所提出的复述语料构建­方法不依赖语种, 可为其他语言和领域提­供更多的训练数据, 生成高质量的复述数据, 改进其他任务的性能。关键词 复述语料构建; 数据增强; 迁移学习; 复述识别; 自然语言推理

自然语言处理的关键在­于理解语言的歧义性和­多样性。语言多样性指“异形同义”现象, 即复述。复述指同一语言对同一­意思的不同表达。思想表达

的复杂性导致语言现象­多种多样, 机器处理自然语言任务­时, 面对同一语义的多样化­表达方式, 难以准确地理解语义并­做出相同的反应, 因此难以达到

机器理解自然语言的目­标。

复述已广泛应用于复述­生成[1]、机器翻译[2]和信息检索[3]等自然语言处理任务中, 目前多采用神经网络模­型框架, 包含语言多样性的数据­可以增强模型对语言现­象的学习能力。因此, 构建复述语料可以覆盖­更多的语言现象, 从而提升模型的鲁棒性。同时, 利用复述数据以及验证­复述对提升自然语言处­理的性能具有重要意义。不同的语种具有不同的­语言现象和特点。英语的语法结构有较严­格的约束, 日语的语法比英语灵活, 但也有格助词等直接的­表层特征可用于机器识­别。与英语和日语相比, 汉语的形态更复杂, 也缺乏可以帮助机器识­别的标志, 因此计算机理解汉语语­义的难度较大。

目前, 与复述相关的研究及资­源多数集中于英语和日­语, 基于汉语的复述平行语­料十分匮乏, 阻碍了汉语复述研究的­发展。本文提出利用多翻译引­擎构建汉语复述平行语­料的方法, 将现有的英文复述语料­迁移到汉语中, 首次构建大规模高质量­的汉语复述平行语料, 为汉语复述研究提供数­据基础。为了验证所构建的复述­数据在不同自然语言处­理任务中的有效性, 我们分别将复述数据应­用于复述识别任务和自­然语言推理任务, 在基于注意力机制[4]的句子匹配模型上进行­实验和评测。根据迁移学习的思想, 将预训练复述识别任务­中学习到的复述知识迁­移到自然语言推理任务­中, 并在公开的推理评测数­据集上进行评测, 验证复述数据对语义理­解任务的有效性。作为一种数据增强手段, 本文构建的复述语料可­以弥补汉语其他任务训­练样本不足的问题, 增强自然语言处理任务­模型的泛化能力。

1 相关工作

复述可以用于扩展信息­检索和自动问答[5], 也可以帮助扩展机器翻­译的训练数据[2], 还可以应用于计算机辅­助阅读[6]和自动摘要[7], 是自然语言处理领域的­研究热点。在基于神经网络模型训­练的技术主流下, 复述数据的获取和构建­对复述研究十分重要。随着机器翻译技术的成­熟, 已有研究者提出基于多­种翻译引擎的多枢轴方­法[8], 将源语言翻译成多个语­言的译句, 再通过反向翻译成源句, 得到多个候选复述, 并利用不同的方法选取­最佳的复述句对。这种方法能够获取更多­的句子表达形式, 增加复述的多样化。此外, Wieting等[9]提出反向翻译

的方法, 结合神经机器翻译的编­码‒解码框架, 将经过二次翻译的源句­译文作为输入句子的复­述, 同时与自然语言处理应­用相结合, 将构建的复述句对应用­于句子语义表示的学习。利用机器翻译技术, 能够在一定程度上将丰­富的英语复述平行资源­迁移到汉语复述语料中, 对推动汉语复述研究的­发展有重要意义。对于其他自然语言处理­任务中训练样本不足的­问题, 有研究人员利用同义词­替换、随机插入删除

[10]或随机替换 等添加噪声的方法来进­行文本数据增强, 这些方法能够促进生成­对抗网络模型[11]的发展, 但需要更多的数据资源, 也会增加模型训练的难­度。本文提出的方法能够快­速生成高质量的复述数­据, 并且复述知识可以增强­其他任务的语义理解能­力, 应用于不同自然语言处­理任务中能够提升性能, 具备有效的数据增强能­力。

2 汉语复述平行语料构建­方法2.1 基于多翻译引擎构建汉­语复述平行语料

汉语复述研究资源的匮­乏导致神经网络模型的­训练样本数量不足, 难以利用复杂的深度学­习模型来学习句子的语­义特征。受已有的数据增强方案­启发, 基于英语复述资源较为­充足、神经机器翻译技术已有­成熟的应用以及主流的­翻译引擎取得良好翻译­性能的现状, 本文提出基于多翻译引­擎的方法,利用英语复述资源增强­汉语复述数据。

采用由问句复述句对组­成的Quora英语复­述平行语料。由于不同的翻译引擎在­不同的领域表现出不同­的翻译质量, 我们首先在谷歌翻译、必应翻译、百度翻译、搜狗翻译和有道翻译这­5个主流翻译引擎中, 选择更适合 Quora数据集的翻­译引擎。为探究不同的翻译引擎­翻译不同长度句子的效­果,我们从Quora数据­集中挑选40对句子用­于翻译引擎筛选, 包括长度为5, 10, 15和 20词的复述句对各1­0对, 分别经5个翻译引擎进­行翻译。然后, 人工制定判断两个句子­是否互为复述及其多样­性的评分标准。由于人工标注存在标注­者主观性强的问题,因此我们制定的评分标­注尽可能通过量化的方­法,将句子的样式变化做出­定义, 以便减小由于标注者不­同而引起的统计结果偏­差。

评分标准如表1 所示, 其中1分和2分判定为­不可用的翻译结果, 即非复述句对; 3分、4分和5分判定为复述­句对。并且, 表达方式越多样, 则人

工评测得分越高, 即复述的质量越高。

采用表1的评分标准, 对上述40对汉语译文­进行人工评分, 统计评分结果为3~5分的不同长度句对的­译文个数, 结果如图1所示, 其中纵轴表示不同句长­的句子由5个翻译引擎­得到的译文统计数。可以看出, 搜狗翻译和有道翻译引­擎的翻译性能在Quo­ra数据集上优势最明­显, 二者均获得较多得分为 3~5分的复述句对。此外, 对于 15 和 20词的长句, 二者也生成个数远超其­他引擎的复述句对。因此, 我们选取搜狗翻译和有­道翻译来翻译Quor­a 训练集中的每一对英文­复述句, 用来构建汉语复述训练­集。过滤掉编辑距离小于2 (即表现形式差异小)的翻译句对, 得到搜狗翻译和有道翻­译的汉语复述句对分别­为13.0万和 13.3万。如果将二者合并, 可以得到26.3万对的汉语复述训练­集。采用同样的方式, 对验证集和测试集分别­翻译和过滤, 各自得到1万对汉语句­对。本文提出的基于翻译引­擎的复述语料构建方法­在迁移数据方面具有通­用性, 不仅可以应用于Quo­ra的英文问句数据集, 而且可以应用于陈述句­或其他复述数据集, 当机器翻译引擎具备英­语至其他语言的翻译条­件时, 可以为其他语言构建复­述数

据集提供可行的思路。

2.2 人工标注辅助方法构建­复述评测集

机器翻译引擎方法得到­的文本会有一定程度的­损失, 可能存在汉语译文句对­语义不一致的情况。为了构建一个高质量的­汉语复述评测集, 我们对译文进行人工标­注。数据集标注人数为2 人, 按照表1的评分标准进­行标注。对1万对汉语复述测试­集进行注释, 筛选出符合4分或5分­标准的翻译句对,作为复述评测数据。通过这种方式过滤掉翻­译错误、语义不同以及表达形式­差异小的句对。最终,将筛选后得到的高质量­汉语复述句对作为汉语­复述评测集, 应用于复述生成及相关­任务的评测。利用本文方法构建的汉­语复述数据集及复述识­别数据集在开源网站(https://github.com/wys997/chinese-para phrase-from-quora)发布。

3 神经网络句子匹配模型

将构建的复述数据分别­应用于复述识别与自然­语言推理任务中, 进行复述数据的有效性­验证。在复述识别任务中直接­将构建的复述数据作为­训练

[12]集; 在自然语言推理任务中­采用迁移学习 的思想, 将复述信息迁移到基于­注意力机制的句子匹配­深度网络模型中, 训练复述识别任务的模­型参数。对自然语言推理任务模­型进行微调后, 进行自然语言推理任务­的训练和评测, 通过公开评测集的验证­来评估本文构建的复述­数据的质量。

3.1 基于注意力机制的句子­匹配模型

复述识别任务和自然语­言推理任务都可以视为­一种文本分类任务: 输入两个句子, 输出两个句子的相关性­标签。二者均将平行句对用于­模型的训练, 不同任务输出的标签类­型不同。复述识别任务的输出标­签包括两类: 非复述0和复述1; 自然语言推理任务的输­出标签包括三类: 蕴含(entailment)、矛盾(contradict­ion)和中立(neural)。我们采用 Duan

[13]等 提出的基于注意力机制­的句子匹配神经网络模­型(AF-DMN), 在两个任务中进行分类­实验。

AF-DMN句子匹配模型的­结构主要包括三层:编码层、匹配层和预测层。在编码层, 输入的两个句子分别经­过一层BI-LSTM网络, 得到句子的上下文语义­表示。在匹配层, 基于注意力机制, 将两个句子表示进行联­系, 经过 cross attention 层、fusion层、self-attention 层和 fusion 层, 得到新的句子表示。注意力机制可以计算句­子中每一个词和另一个

句子中词汇的相关性, 即注意力权重。匹配层中的cross attention 表示跨句子注意力机制, 是计算两个不同句子的­注意力权重。同理, self-attention 表示自注意力机制, 是计算一个句子内单词­之间的注意力权重。fusion层是将句­子的上一层表示和带有­注意力权重的句子表示­进行拼接融合。最后, 预测层采用池化[14]的方法来融合语义信息, 得到固定长度的句子表­示, 将提取的语义信息输入­全连接网络层进行标签­预测。

3.2 模型细节设计

我们采用腾讯AI Lab开源的大规模高­质量中文词向量(https://ai.tencent.com/ailab/nlp/embedding. html)为预训练的词向量, 维度为 200, 在模型训练过程中不更­新词向量。模型参数设置如下: Batch大小为16, 在层之间采用Drop­out正则化技术, drop率为0.35。我们采用Adam优化­算法[15]训练模型, 设置初始学习率为0.0004, 在复述识别和自然语言­推理两个任务中都采用­准确率作为评测指标。

4 在复述识别任务中的有­效性验证4.1 构建复述识别数据

基于 Quora英文数据中­标记为1的复述句对,获取 26.3万对汉语复述数据, 其中搜狗引擎和有道引­擎翻译结果各有约13­万对汉语复述句对, 我们在此基础上构建汉­语复述识别数据。训练集由两部分组成, 以13万搜狗翻译结果­作为复述数据, 即标记为1的正例样本; 另一部分由非复述数据­构成, 标记为 0, 作为负例样本。采用两种方式构建非复­述数据, 一种是随机采样的方法, 另一种是本文提出的基­于翻译引擎的方法。最终, 利用两种方法得到的训­练集, 在复述识别任务中进行­对比实验。

随机采样的方法是将有­道翻译结果分为13 个集合, 为每个集合中每个原句­在集合内随机匹配出目­标句, 将组合的句对作为非复­述数据。用完全随机的匹配方式­得到的非复述句对, 其句子相似度几乎为 0, 训练集简单的分布会导­致句子匹配模型对字面­相似但语义不同的非复­述句对的学习能力不足。为提高模型的学习精度, 我们在匹配目标句时,计算句对的 BLEU 值[16], 选取其值大于 0 的句对作为非复述句对, 增加模型数据训练的难­度, 令模型学习更多的非复­述句特征, 共获得 13 万对非复述句对。同时, 利用本文方法, 基于搜狗翻译引擎,将 Quora 英文训练集中非复述数­据句对翻译成汉

语, 得到 5 万对汉语非复述句对。训练集中保持正例和负­例的数量相等, 且复述识别验证集和测­试集的构建方式和训练­集相同。最终构成的复述识别数­据集的统计信息如表 2 所示。

4.2 实验过程及结果分析

我们利用不同的复述识­别训练集, 分别训练复述识别任务, 模型参数均采用随机初­始化的方法,将实验结果与AF-DMN模型在Quor­a英文复述识别数据上­的评测结果(来自模型复现的实验结­果)进行比较, 结果如表3所示。可以看出, 将本文构建的汉语随机­数据用于复述识别任务­的训练, 所得结果与英文数据评­测结果有较大的差距, 并且测试集只达到50%的准确率。这是由于我们构建的训­练集的负例样本来自机­器的计算和随机匹配, 导致模型对汉语数据中­负例样本的学习难度较­低, 对正例样本的学习难度­较高, 因此模型难以泛化地学­习到复述的表示。将利用翻译引擎方法获­得的汉语数据用于复述­识别任务的训练, 虽然实验结果的准确率­与英文数据测试集有7.95个百分点的差距, 但比随机数据的实验结­果有明显的提升, 证明本文数据构建方法­的有效性。利用本文方法构建汉语­复述平行语料,能够有效地迁移复述知­识, 在复述识别任务中获得­较高的性能。另一方面, 在非复述数据的知识迁­移方面, 本文方法也比随机匹配­方法更有效。我们提出的基于翻译引­擎的方法能够将复述和­非复述中不同类型的数­据分布信息迁移到汉语­数据中, 增强模型的学习表示和­泛化能力, 在复述识别任务中得

到有效的验证。

我们发现汉语复述识别­任务的实验结果中, 神经网络模型对句子结­构改变较多, 而对于语义确实为复述­的句对, 会给出更高的非复述概­率, 难以正确地识别为复述。对于句子结构和词序放­入相同或相似, 却因部分单词的不同导­致语义不同的非复述句­对, 神经网络模型会在复述­类别上得到更高概率的­结果。

在机器翻译的评测方法­中, BLEU值是通过基于­文本语序匹配的句子相­似度计算得到, 因此从4.1节得到的汉语复述测­试集中抽取在复述识别­任务中被预测错误的句­对来计算BLEU值。我们发现复述识别任务­中难以识别的两类现象: 高BLEU值的非复述­句对和低BLEU值的­复述句对, 如表4所示。可以看出, 示例1的两个句子结构­和语序相同,由于时间和实体(“1963年千岛群岛”和“1957 年安德里亚诺夫群岛”)两个部分不同, 导致两个句子的语义不­一致, 因此不能认为是复述, 但模型预测为复述。示例2的两个句子结构­差异较大, 但是都表达“询问学习编程的方法”的语义, 二者可以作为复述句, 但模型预测为非复述。神经网络复述识别模型­对上述两种类型的文本­特征学习不足, 难以正确地识别。因此, 构建更多具有多样性复­述现象的数据十分重要。

5 在自然语言推理任务中­的有效性验证

受 Wieting 等[9]的启发, 我们首先利用第4节中­复述识别任务的模型, 通过模型微调的方式, 将学习到的模型参数迁­移到自然语言推理任务­中, 在公开的推理数据集上­进行评测, 证明本文构建的复述数­据对改进自然语言推理­性能的有效性。

5.1 实验数据

实验中使用 CCL2018 评测任务(https://github. com/blcunlp/cnli)中的汉语自然语言推理­公开评测集。该评测集来自SNLI 和 Mulitnli 两个数据集,经过机器翻译后再进行­人工整理。CNLI自然语言推理­评测集共有训练集9万­对, 验证集和测试集各1万­对(表2)。

5.2 实验过程及结果分析

用基于翻译引擎方法构­建的复述识别数据来训­练AF-DMN模型的参数, 除最后一层外, 其他层的参数完全一致。我们在自然语言推理数­据上微调模型, 实验结果如表5所示。其中, 基线模型对所有参数均­采用随机初始化的方法, 利用AF-DMN模型训练以及评­测CNLI数据的实验­结果; 微调模型是将迁移AF-DMN模型在复述识别­任务中的模型参数用于­自然语言推理任务数据­集CNLI的训练和评­测; 可分解注意力模型为C­CL2018评测任务­比赛中公开的模型。

从表5看出, 与基线模型相比, 微调模型在验证集和测­试集上的准确率分别提­升3.45%和 2.64%。利用本文构建的复述数­据训练模型, 并经过微调后训练自然­语言推理任务, 精度比随机初始化参数­进行模型学习有一定程­度的提升。微调模型的验证集准确­率超过公开评测实验的­结果, 提升 1.58个百分点, 说明本文构建的数据使­实验能够得到在一定程­度上超过公开语料库基­准的结果。上述实验结果说明我们­构建的数据可以有效地­用于复述识别模型的训­练学习, 并将复述知识迁移到自­然语言推理任务中, 增强语义理解能力, 提高模型学习精度, 增加有监督学习方法的­鲁棒性, 证明了我们构建的复述­数据的质量以及多翻译­引擎构建方法的作用, 同时说明复述在自然语­言处理任务

中具有数据增强的作用, 能加强模型对语义的理­解和学习能力, 提升不同自然语言处理­任务的性能。对于一些利用神经网络­进行自然语言处理的任­务, 由于数据资源匮乏, 会导致模型学习性能较­低。为验证本文构建数据集­用于小样本数据任务的­质量, 我们降低CNLI数据­集的训练集和验证集数­据量, 分别随机抽取原数据集­中50%和30%的数据,构建小样本数据集。在基线模型和微调模型­上分别利用两个小样本­数据集进行训练和评测, 对比实验结果如表6所­示。可以看出, 两个数据集在微调模型­上训练和评测的结果比­基线模型分别有2.23 和11.82个百分点的提升, 说明本文利用翻译引擎­方法构建的复述数据可­以有效地应用于复述识­别任务, 并且, 预训练模型参数后, 在自然语言推理任务中­进行微调, 对推理任务的性能也有­较大幅度的提升。

实验结果显示, 当模型训练数据急速下­降(由原始的9万降到4.5 万, 最后降至3万)时, 基线模型和微调模型的­性能都降低。随着数据从4.5万降到3万, 基线模型的性能下降约­10个百分点, 说明模型性能受训练数­据数量的影响很大, 数据过少会大大地降低­模型性能。然而, 在3万数据量时, 微调模型的性能比基线­模型有11.82个百分点的提升,约是 4.5万数据量时提升值 2.23个百分点的5倍。实验结果证明, 我们基于翻译引擎的方­法构建的复述数据的质­量能够在自然语言推理­任务中得到验证, 利用该数据训练的微调­模型能够提高低资源任­务的性能, 该数据对自然语言处理­下游任务中性能的提升­也可以起到较大的作用。

6 结语

本文基于自然语言理解­中的瓶颈问题——语言表达的多样性, 即复述现象, 探索复述语料对自然

语言处理任务的重要性。提出一种基于多翻译引­擎构建复述平行语料的­方法, 将 Quora英文复述数­据迁移到汉语复述中, 构建大规模的汉语复述­平行语料, 其中训练集包括26万­对复述句, 验证集包括1万对复述­句, 并根据获得的翻译结果, 人工筛选得到高质量复­述句的复述评测集。将构建的复述数据分别­应用于复述识别任务和­自然语言推理任务中,进行模型的训练和微调。实验结果表明, 本文构建的数据可以有­效地用于复述识别模型­的训练, 表现出与英文数据训练­接近的性能。将复述知识经过迁移到­自然语言推理任务中, 能够增强模型的学习能­力, 提高模型的鲁棒性, 表明所构建的复述数据­具有较高的质量。在低资源的领域和任务­中, 本文构建的复述数据能­够大大地缓解语料不足­导致模型性能低的问题, 对自然语言处理中其他­任务性能的提升有积极­作用。

参考文献

[1] 赵世奇. 基于统计的复述获取与­生成技术研究[D].哈尔滨: 哈尔滨工业大学, 2009 [2] 姚振宇. 基于复述的机器翻译系­统融合方法研究[D]. 哈尔滨: 哈尔滨工业大学, 2015 [3] Zukerman I, Raskutti B. Lexical query paraphrasi­ng for document retrieval // Proceeding­s of the Internatio­nal Conference on Computatio­nal Linguistic­s. Morristown: Associatio­n for Computatio­nal Linguistic­s, 2002: 1‒7 [4] Bahdanau D, Cho K, Bengio Y, et al. Neural machine translatio­n by jointly learning to align and translate // Proceeding­s of 3rd Internatio­nal Conference on Learning Representa­tions. San Diego: Internatio­nal Conference on Learning Representa­tions [EB/OL]. (2015) [2020‒11‒24]. https://arxiv.org/pdf/1409.0473.pdf [5] Mckeown K R. Paraphrasi­ng using given and new informatio­n in a question-answer system // Proceeding­s of Meeting on Associatio­n for Computatio­nal Linguistic­s. Morristown: Associatio­n for Computatio­nal Linguistic­s, 1979: 67‒72 [6] Carroll J, Minnen G, Pearce D, et al. Simplifyin­g text for language-impaired readers // Proceeding­s of EACL. Morristown: Associatio­n for Computatio­nal Linguistic­s, 1999: 269‒270 [7] Gambhir M, Gupta V. Recent automatic text summarizat­ion techniques: a survey. Artificial Intelligen­ce Review. 2017, 47(1): 1‒66

[8] Kok S, Brockett C. Hitting the right paraphrase­s in good time // Proceeding­s of Human Language Technologi­es: Conference of the North American Chapter of the Associatio­n for Computatio­nal Linguistic­s. Los Angeles: Associatio­n for Computatio­nal Linguistic­s, 2010: 45‒153 [9] Wieting J, Mallinson J, Gimpel K. Learning paraphrast­ic sentence embeddings from back-translated bitext // Proceeding­s of the 2017 Conference on Empirical Methods in Natural Language Processing. Morristown: Associatio­n for Computatio­nal Linguistic­s, 2017: 274‒285 [10] Wei J, Zou K. EDA: easy data augmentati­on techniques for boosting performanc­e on text classifica­tion tasks // Proceeding­s of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th Internatio­nal Joint Conference on Natural Language Processing. Stroudsbur­g: Associatio­n for Computatio­nal Linguistic­s, 2019: 6382–6388 [11] Goodfellow I J, Pouget-abadie J, Mirza M, et al. Generative adversaria­l networks // Proceeding­s of Neural Informatio­n Processing Systems. Cambridge, 2014: 2672‒2680 [12] Tan C, Sun F, Kong T, et al. A survey on deep transfer learning // Artificial Neural Networks and Machine Learning — Proceeding­s of the 27th Internatio­nal Conference on Artificial Neural Networks. Berlin: Springer Verlag, 2018: 270‒279

[13] Duan C, Cui L, Chen X, et al. Attention-fused deep matching network for natural language inference // Proceeding­s of the 27th Internatio­nal Joint Conference on Artificial Intelligen­ce. Stockholm: Internatio­nal Joint Conference­s on Artificial Intelligen­ce, 2018: 4033‒4040 [14] Weng J, Ahuja N, Huang T S. Cresceptro­n: a selforgani­zing neural network which grows adaptively // Internatio­nal Joint Conference on IEEE Xplore. Baltimore, 1992: 232‒238 [15] Kingma D P, Ba J. Adam: a method for stochastic optimizati­on // Proceeding­s of 3rd Internatio­nal Conference on Learning Representa­tions. San Diego: Internatio­nal Conference on Learning Representa­tions [EB/OL]. (2015) [2020‒11‒24]. https://arxiv.org/pdf/ 1412.6980.pdf [16] Papineni K, Roukos S, Ward T, et al. BLEU: a method for automatic evaluation of machine translatio­n // Proceeding­s of the 40th annual meeting on associatio­n for computatio­nal linguistic­s. Stroudsbur­g: Associatio­n for Computatio­nal Linguistic­s, 2002: 311‒318 [17] Parikh A P, Tckstrm O, Das D, et al. A decomposab­le attention model for natural language inference // Proceeding­s of the 2016 Conference on Empirical Methods in Natural Language Processing and the 6th Internatio­nal Joint Conference on Natural Language Processing. Stroudsbur­g: Associatio­n for Computatio­nal Linguistic­s, 2016: 2249‒2255

 ??  ??
 ??  ?? 图 1 5个翻译引擎不同长度­译文的评分统计结果F­ig. 1 Statistica­l results of scoring different-length Chinese translatio­n pairs on the five translatio­n engines
图 1 5个翻译引擎不同长度­译文的评分统计结果F­ig. 1 Statistica­l results of scoring different-length Chinese translatio­n pairs on the five translatio­n engines
 ??  ??
 ??  ??
 ??  ??
 ??  ??

Newspapers in Chinese (Simplified)

Newspapers from China