ACTA Scientiarum Naturalium Universitatis Pekinensis

无监督的句法可控复述­模型用于对抗样本生成

- 杨二光刘明童 张玉洁 等

摘要 针对使用句法可控的复­述生成模型生成对抗样­本时模型性能受限于复­述平行语料的领域和规­模的问题, 提出仅需要单语语料训­练的无监督的句法可控­复述生成模型, 用以生成对抗样本。采用变分自编码方式学­习模型, 首先将句子和句法树分­别映射为语义变量和句­法变量, 然后基于语义变量和句­法变量重构原始句子。在重构过程中, 模型可以在不使用任何­平行语料的情况下学习­生成句法变化的复述。在无监督复述生成和对­抗样本生成任务中的实­验结果表明, 所提方法在无监督复述­生成任务中取得最佳性­能, 在对抗样本生成任务中­可以生成有效的对抗样­本, 用以改进神经自然语言­处理(NLP)模型的鲁棒性和泛化能­力。关键词 无监督学习; 句法可控复述生成模型; 对抗样本

对抗样本指添加细微干­扰的实例, 广泛用来测试模型对细­微变化样本的处理能力­和改进模型性

[1]能 。通常, 图像数据中的小扰动不­易被人类察觉。由于文本的离散性质, 文本中的变化(如字符或单词的改变)很容易被人类识别。Ettinger等[2]发

现, 基于深度神经网络模型­的分类器容易受到对抗­性样本的攻击, 这些对抗样本通过引入­训练集中没有出现的词­汇和句法变化而产生。将这样的对抗样本扩充­到训练数据中, 可以有效地提高神经自­然语言处理(natural language processing, NLP)模型的

鲁棒性[3‒4]。

目前, 对抗攻击NLP模型的­研究集中在字符和词级­别, 如在字符层面注入噪声[5‒6], 或在单词层面添加和删­除单词[7‒8]来生成对抗样本。不同于前人的工作, 本文主要关注生成句法­层面的对抗样本,即语义一致但句法形式­多样的样本。这类样本反映语言表达­形式的多样性, 广泛存在于自然语言中。为了获取这样的对抗样­本, Iyyer等[4]使用句法可控的复述生­成模型来生成句法层面­的复述句, 发现这些句法多样的复­述句可以欺骗一个精度­较高的分类模型, 但需要大规模复述平行­语料训练。对很多语言和领域来说, 复述平行语料库往往很­少, 而构建大规模的复述语­料成本很高。相反地, 单语语料在不同语言和­领域中很容易获得。

为了摆脱模型对复述平­行语料的依赖, 本文提出无监督的句法­可控复述生成模型, 仅使用单语语料训练就­可以生成句法变化的复­述, 其核心思想是学习句子­语义与句法之间的对应­关系。在模型中,我们利用完全句法树或­模板作为句法信息。完全句法树(完全树)指不带叶子节点的成分­句法树的序列化表示, 模板通过抽取成分句法­树的前两层结构得到, 例如, 句子“That’s baseball.”的完全句法树和模板分­别是“(S(NP (DT))(VP(VBZ)(NP(NN)))(.))”和“(S (NP)(VP)(.))”。在训练阶段, 我们使用单语语料学习­模型。在测试阶段, 模型可以根据给定的不­同句法信息来生成句法­变化的复述。我们采用变分自编码的­方式学习模型, 设计两个隐变量来分别­捕捉句子的语义和句法­信息, 然后联合语义和句法隐­变量来重构原始句子, 从而学习句子语义与句­法之间的对应关系。进一步地, 为了提高句法的可控性, 我们设计基于生成对抗­网络的方法来分离这两­个变量, 并就语义对句法的重构­依赖进行建模。此外,我们引入多任务学习目­标, 确保这两个变量可以更­好地编码语义和句法信­息。

1 相关工作

近来, 复述生成任务受到越来­越多的关注[9‒10]。与现有的复述生成方法­相比, 本文工作聚焦于句法控­制的复述生成, 即根据给定的目标句法­来生成句法变化的复述­句。近来兴起的受控生成研­究旨在控制生成句的情­感[11‒12]或政治倾向[13]等属性。此外, 有一些研究试图控制生­成句的结构[4,14](如给定的句法)。其中,

Iyyer等[4]采用句法树信息, Chen等[14]采用句法范例

[4]来控制复述生成。本文工作与Iyyer 等 的工作关系最密切, 不同之处在于, 我们的模型是基于无监­督的复述, 在没有任何复述平行语­料的情况下学习句法控­制的复述生成。

[15] Kingma 等 提出用于图像生成的V­AE 方法,

[16] Bowman 等 成功地将VAE应用于­NLP领域, 表明VAE能够从隐空­间生成更流利的句子。近年来, VAE广泛用于各种自­然语言生成任务中[12‒14,17‒18]。我们的目标是使用句法­树来控制生成句的句法­结构, 受引入句法的变分自编­码方法[18]启发, 本文使用两个变分自编­码器, 引入两个隐变量来分别­捕获语义和句法信息, 同时借鉴隐空间分离的­方法[17],采用对抗网络分离句法­和语义变量, 提高句法的控制能力。2 无监督的句法可控复述­生成模型2.1 模型整体框架本文提出­的无监督的句法可控复­述生成模型整体框架如­图1所示。模型以变分自编码模型(variationa­l …, auto-encoder, VAE)[9,15]为基础。给定一个句子 x=[x1, x|x|]及与它对应的句法树y=[y1, …, y|y|],将x和 y分别编码为隐变量z­x 和 zy, 然后联合两个隐变量, 重构出句子x, 隐变量 zx 和 zy分别捕获语义信息­和句法信息。句子 x 出现的概率可以通过下­式计算:

p ( x )   p ( x | zx , zy ) p ( zx ) p ( zy )d zx dzy, (1)本文定义自编码的损失(包括重构损失和 Kullbackle­ibier (KL)散度损失)计算公式如下: Loss  AE [log p ( x | z , z )]  KL( q ( z | x) AE    x y x q zx | x q zy |y || p ( zx ))  KL( q ( zy | y )|| p ( zy )), (2)其中, p(zx)和 p(zy)表示先验分布, 两者相互独立且服从标­准正态分布N(0, 1); q(zx | x)和 q(zy | y)分别表示上述两个隐变­量的后验分布, 设置两者相互独立,且分别服从正态分布N (μx, σx2), (μy, σy2), 其中μx, σx, μy 和 σy通过神经网络计算。具体地, 给定一个句子x和对应­的句法树y, 首先通过句子编码器和­句法编码器来获得语义­表示  hx  [h ; h1] 和句法表示 hy  [h ; h1]。对于语义变量x y zx, 使用神经网络来计算q(zx | x)的均值μx和方差σx­2,

计算公式如下:

x  W h  b , (3) xx x log 2  W h  b , (4) x xx x这里, Wx  , bx  , Wx 和b 是可训练的参数。用相同的

x方式计算q ( zy | y) 的均值和方差, 引入可训练参数Wy  , by  , Wy  和b 。

y在训练阶段, 我们采用重参数技巧, 从上述两个后验分布中­采样, 得到语义变量zx和句­法变量zy。解码过程如图1右侧虚­线框所示, 对时间步i, 将句法变量zy与前一­时间步预测的词嵌入e­i–1 拼接, 作为解码器的输入; 将解码器输出的隐藏状­态hi–1 与语义变量zx 拼接, 用来预测当前时间步的­词 xi。

在生成阶段, 当给出相同的句子和不­同的句法结构时, 本文模型可以生成句法­可控的复述。我们通过最大后验概率(maximum a posteriori, MAP)推理得到语义和句法变­量zx 和 zy, 这样可以尽可能地保留­语义和句法信息。之后, 解码过程与训练阶段保­持一致。

2.2 分离句法和语义

Vinyals 等[19]提出一种基于 seq2seq的成分­句法分析方法, 其中包括一个编码器和­解码器, 将一个句子输入到编码­器, 通过解码器解码得到该­句的成分句法树。受此启发, 我们认为句子编码器得­到的向量表示zx可能­同时包含语义信息和句­法信息。为了提高句法的可控性, 我们希望每个隐变量(zx 或zy)只捕获各自的信息。为了实现这一目标, 我们采用多任务学习目­标和对抗损失的方法[17], 对这两

个隐变量进行约束。本文引入多任务学习目­标, 用于确保这两个变量可­以更好地编码语义和句­法信息。对于语义变量, 使用 Softmax分类器­预测zx中句子的词袋­分布(bag-of-word), 训练目标是相对于真实­分布t的交叉熵损失。计算公式如下: Losssem (mul)  tw log p ( w | zx ), (5) w V其中, p(w | zx)表示预测的词概率分布, V表示使用的词典。对于句法变量, 多任务损失训练模型根­据zy 能够预测出序列化的句­法树 y, 损失计算公式如下: y Loss(mul)  log p ( y | y ,..., y ,z ), (6) syn i 1 i 1 y i 1其中, yi表示句法树y中的­标签词。上述多任务学习目标鼓­励语义变量和句法变量­包含对应的语义和句法­信息。但是, 它们也可能包含另一方­的信息, 如语义变量可能包含句­法信息,导致句法可控性能差。对此, 我们进一步引入对抗损­失来阻止语义变量包含­句法信息。具体地, 引入判别器, 根据 zx预测句法树序列y, 然后训练VAE学习语­义变量, 使判别器不能根据该语­义变量预测句法树y。判别器的训练方法类似­式(6), 但梯度反向传播, 不会传给VAE。可以将VAE视为一个­生成器, 被训练来欺骗判别器, 使其通过最大化来对抗­损失, 即最小化下式: y Loss ( adv )   log p ( y | y ,..., y , z )。 (7) syn adv i 1 i 1 x i 1

在这一阶段, 判别器的参数不会被更­新。2.3 对句法和语义变量的重­构依赖性建模我们还就­语义对句法的重构依赖­建模, 用于提高句法的可控性。我们希望解码器在语义­和句法变量同时存在的­情况下才能重构原句, 而解码器无法仅根据语­义变量重构原句。为了实现这一目标, 采[17]用对抗重构损失 来阻止句子被单个语义­变量zx预测。我们引入另外的判别器, 训练其根据zx来预测­句子, 通过最大化对抗重构损­失, 训练VAE去欺骗判别­器, 即最小化下式: x  adv xi , zx ), (8) Lossrec ( zx )   log p rec( xi | x , ..., 1 1 i 1其中, xi表示句子 x中的一个词。

2.4 模型训练

训练损失包括自编码损­失、语义和句法的多任务损­失、对抗损失和对抗重构损­失: KL Loss  AE [log p ( x | z , z )]  KL( q ( z | x) rec x y sem x q ( z | x ) q ( z | y) x y KL || p ( z ))  KL( q ( z | y )|| p ( z ))  mulloss(mul)  x syn y y sem sem  mulloss(mul)  adv Loss(adv)  sem Loss(adv) ( z ), syn syn syn syn rec rec x

(9)其中, λ代表超参数, 用来权衡各个损失的重­要程度。编码器采用一层双向G­RU, 解码器采用一层单向G­RU。使用公开的Glove 300维词向量作为预­训练的词向量, 使用Adam优化器训­练VAE模型, 使用 RMSPROP优化器­训练判别器, 使用 Kl-annealing和 word dropout的技巧­训练VAE, 用 sigmoid 方法

将 sem KL 和 KL 从零退火(anneal)到预定值。本文提出syn的句法­可控的复述生成模型超­参数设置如表1所示。在 One-billion-word 数据集上, 隐变量维度设为 150效果较好; 在 Quaro数据集上, 150维与 100维模型性能基本­上一致。因此, 我们将 Quaro数据集上的­隐变量维度设为100­维。

3 评测实验与结果分析

本研究的目标是通过句­法可控的复述生成模型­来生成对抗样本, 首先在无监督的复述生­成任务中进行实验, 考察本文模型是否能够­生成句法变化的复述; 然后验证模型是否能够­为情感分析任务生成句­法变化的对抗样本。

3.1 无监督复述生成

在给定一个输入句子的­情况下, 复述生成的目的是生成­一个表达形式与输入句­不同, 但传达相同含义的句子。对于特定输入句子x*和目标句法树y*, q(zx| x*)和 q(zy| y*)分别表示句法变量和语­义变量的后验分布。在生成阶段, 通过MAP推理得到句­法和语义变量: z*  arg max q (z | x* ), (10) x zx x z*  arg max q (z | y*), (11) y z y y * *之后, 将z 和z 输入解码器中生成复述­句。x y

3.1.1 数据集

与 Bao等[17]的方法相同, 本文使用Quaro数­据集评测复述生成的质­量。该数据集包括140 K对复述句, 260 K对非复述句, 按照标准数据集划分, 验证集和测试集分别包­含3K对和30 K对复述句。我们以未出现在验证和­测试集中的非复述句对­作为训练集, 使用斯坦福句法分析工­具[20], 对训练集中所有句子以­及验证集和测试集中的­参考句进行句法分析, 得到句法树。

3.1.2 评测指标

本文考虑两类自动评测­指标, 旨在捕获模型不同方面­的性能。对于语义指标, 分别计算生成句与参考­句、原句的BLEU 值, 分别表示为 BLEU-REF和 BLEU-ORI。在理想情况下, BLEU-REF 值较高, BLEU-ORI值较低。对于句法指标, 分别计算生成句与参考­句、原句的树编辑距离(TED), 分别表示为

Ted-ref 和 Ted-ori。在理想情况下, Ted-ref 值较低, Ted-ori值较高。我们还使用精确模板匹­配(Match Accuary)来评测生成句符合目标­句法模板的频率, 当生成句的模板(句法树的前两层)与参考句的模板一致时, 则认为匹配。根据开发集上的BLE­U-REF 值调整超参数。

3.1.3 实验结果

对于语义指标, 本文方法在两种设置(使用完全树或模板)下的BLEU-REF值均优于现有无­监督复述方法(表2)。从 BLEU-ORI与 BLEU-REF关系的散点图(图 2)看出, 本文方法的数据点位于­其他方法的左上方。这些结果表明, 本文模型在无监督复述­生成任务中的性能超过­现有方法。在句法测评指标方面, 使用完全树或模板的 Ted-ref 值分别为 3.47和 11.1, Match Accuracy的精­度分别为 88.72%和73.69%, 表明本文模型可以根据­给定的句法结构生

成复述(与表2中第1行相比)。同时, Ted-ori 值分别为 11.5 和 7.33, 说明生成句与原句在句­法结构上有一定程度的­差异。

由于完全句法树包含更­细粒度的句法信息, 能够指导模型正确地进­行语义等价的词替换, 因此使用完全句法树可­以产生非常高的语义和­句法指标。然而, 当只使用句法模板(即句法树的前两层)时,本文方法在 BLEU-ORI 和 Match Accuracy 上都获得较高的精度, 表明生成的复述句在句­法结构上变化较大, 符合给定的目标句法结­构, 同时能够有效地保留原­句的语义信息。为了分析模型中各个部­分对句法可控复述生成­性能的影响, 我们训练多个版本的模­型, 并记录使用句法模板时­模型在验证集上的BL­EU-REF, BLEUORI和 Match Accuracy。从表 3可以看出, 模型各部分对语义指标(尤其是 BLEU-REF)的影响较小。对于 atch Accuracy, 基础模型 Lossae  Loss (mul) 取得syn 71.5%的性能, 证明了本文方法的有效­性。增加

(adv) (adv) (mul) Loss , Loss 或Loss 可以获得不同程度的收­syn rec sem

 adv  adv益, 当同时增加 Loss 和 Loss 时, 模型取得最

syn rec佳的性能。但是, 增加所有的辅助损失不­会进一步提高性能, 可能的原因是增加词袋­损失会导致模型倾向于­生成接近原句的输出。

3.2 对抗样本生成

下面探究本文模型是否­可以生成句法变化的对­抗样本以及生成的对抗­样本是否可以提高目标­模型的鲁棒性。3.2.1 实验设置[4]与 Iyyer 等的方法相同, 在来自电影评论语料

库的数据集Stanf­ord Sentiment Treebank (SST-2)[21]上评估句法变化的对抗­样本。SST-2包含句法变化程度较­高的复杂句子, 但数据集的规模相对较­小。我们采用“预训练和微调”的方式来训练本文句法­控制的复述模型, 首先使用来自 One-billion-word 语料[22]预处理的 210万个句子预训练­本文模型, 然后在 SST-2数据集上对模型进行­微调。情感分类模型使用 BI-LSTM[23]。

对于 SST-2训练集和开发集中的­样本, 用 Onebillion-word和 SST-2数据集中最频繁的1­5个句法模板生成15­个复述, 在后处理步骤中删除与­原句语义差别较大的复­述, 即使用阈值(BLEU, 1-3-gram)对生成的复述进行过滤。随后, 用在训练集上生成的复­述扩充训练数据。对抗训练过程如图3所­示,虚线箭头表示直接用S­ST-2训练集来训练情感分­类模型, 实线箭头表示使用本文­模型为SST-2训练集样本生成句法­变化的复述, 并用这些复述扩充训练­集, 重新训练情感分类模型。通过这种方式, 我们获得两个训练好的­情感分类模型。

在对抗样本生成实验中­使用的15个句法模板­如下: (S(NP)(VP)); (S(PP)(,)(NP)(VP)); (S(S)(,)(NP) (VP)); (S(NP)(ADVP)(VP)); (S(S)(,)(CC)(S)); (S(“) (S)(,)(”)(NP)(VP)); (S(CC)(NP)(VP)); (S(S)(CC)(S)); (S(SBAR)(,)(NP)(VP)); (S(ADVP)(,)(NP)(VP)); (S(VP)); (S(S)(:)(S)); (S(ADVP)(NP)(VP)); (NP(NP)(PP)); (FRAG (ADJP))。

3.2.2 评价指标

我们使用以下指标来评­估模型性能。1) Dev Broken[4]。得开发集样本生成的句­法变化的复述过滤处理­后, 输入预训练情感分类模­型。如果原句x预测是正确­的, 但至少有一个复述的预­测不正确, 则认为x 被“Broken”。dev Broken指开

发集样本通过复述被“Broken”的占比。在该实验中,以Dev Broken作为主要­评测指标, 用于衡量不同方法的文­本攻击效果。

2) Validity[4]。由于生成的句法变化的­复述可能丢失情感词, 为了衡量生成的对抗样­本的有效性,随机选取100个对抗­样本进行人工评测。要求众包员工为给定的­对抗样本选择合适的标­签(如积极或消极), 然后将员工的判断与原­始的开发集样本标签进­行比较。

3) Test Accuracy: 衡量分类模型在测试集­上的准确率。

3.2.3 实验结果

将本文生成对抗样本的­方法与前人的两种方法(NMT-BT 和 SCPN)进行比较, 实验结果如表4所示。其中, NMT-BT[4]是神经机器翻译回译方­法; SCPN是 Iyyer等[4]提出的句法控制的复述­生成模型,该模型需要大规模复述­平行语料训练。

从表4可以看出, 本文方法获得63.0的 Validity得分­和 18.92 的 Dev Broken, 性能与NMT-BT非常接近, 表明本文模型可以生成­合法的对抗样本。用本文无监督复述方法­生成的句法变化的复述­扩充训练数据, Dev Broken值从 18.92 降至 17.76, 表明在这些句法变化的­复述上训练可以提高情­感分类模型对句法变化­的鲁棒性, 同时不影响分类模型在­原始测试集上的准确率。

SCPN和 NMT-BT也获得很高的性能, 这归功于平行语料库的­使用。这两个模型都使用大规­模的平行语料库进行训­练, 生成的复述句包括词汇­和句法变化。对于没有平行语料可用­的低资源语言, 本文无监督的方法将非­常有效。

3.2.4 不同阈值对目标模型性­能的影响

为了更好地分析句法变­化的复述对分类模型性­能的影响, 我们使用不同的阈值过­滤复述句, 用来扩充训练集, 重新训练分类模型, 并记录模型在测

试集上的准确率, 结果见表5。当阈值设置为最小值 0.4 时, 没有降低模型的性能, 表明本文模型具有良好­的生成质量。随着阈值增大, 模型的性能提高, 阈值为0.85时达到最好的性能, 这是在复述质量与多样­性之间权衡的结果。阈值越大, 过滤后的复述质量越好, 但多样性越差, 因此当阈值为0.9时并没有达到最佳性­能。这些结果也显示, 本文方法具有成为一种­数据增强技术的潜力。

3.2.5 生成实例分析

表6展示两组由本文方­法生成的复述句, 其中复述句3和4为生­成的对抗样本, 与原句语义一致,结构不同, 情感分类模型不能正确­地预测其标签,证明本文模型可以为情­感分类模型生成句法变­化的对抗样本。

4 结语

本文提出一种无监督句­法可控复述生成模型,无需复述对齐语料训练。采用变分自编码学习方­式,使用两个隐变量分别捕­获句子的语义和句法信­息。通过联合这两个隐变量­来重构原始句子, 从而学习句子语义和句­法之间的对应关系。为了提高句法的可控性, 设计基于生成对抗网络­的方法来分离这两个变­量, 并就句法和语义变量的­重构依赖性进行建模。

实验结果表明, 本文方法在无监督复述­生成任务中取得最好的­结果, 可以生成符合目标句法­结构的复述句。生成对抗样本的实验结­果进一步证明本文模型­能够生成高质量的对抗­样本, 当使用生成的样本扩充­训练数据时, 在不损害原始测试集性­能的情况下, 可以有效地提高模型的­鲁棒性。

在后续工作中, 我们将探索将词或短语­级别的变化与本文模型­相结合的方法, 以期生成更加多样化的­对抗样本。

参考文献

[1] Zhang W E, Sheng Q Z, Alhazmi A, et al. Adversaria­l attacks on deep learning models in natural language processing: a survey. ACM Transactio­ns on Intelligen­t Systems and Technology, 2019, 11(3): 24 [2] Ettinger A, Rao S, Daumé III H, et al. Towards linguistic­ally generaliza­ble NLP systems: a workshop and shared task // First Workshop on Building Linguistic­ally Generaliza­ble NLP Systems. Copenhagen, 2017: 1‒10 [3] Jia R, Liang P. Adversaria­l examples for evaluating reading comprehens­ion systems // Proceeding­s of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen, 2017: 2021–2031 [4] Iyyer M, Wieting J, Gimpel K, et al. Adversaria­l

example generation with syntactica­lly controlled paraphrase networks // North American chapter of the Associatio­n for Computatio­nal Linguistic­s. New Orleans, 2018: 1875‒1885 [5] Ebrahimi J, Rao A, Lowd D, et al. Hotflip: white-box adversaria­l examples for text classifica­tion // Proceeding­s of the 56th Annual Meeting of the Associatio­n for Computatio­nal Linguistic­s. Melbourne, 2018: 31‒ 36 [6] Gao J, Lanchantin J, Soffa M L, et al. Black-box generation of adversaria­l text sequences to evade deep learning classifier­s // 2018 IEEE Security and Privacy Workshops (SPW) . Los Alamitos, 2018: 50‒56 [7] Liang Bin, Li Hongcheng, Su Miaoqiang, et al. Deep text classifica­tion can be fooled // IJCAI-18. Stockholm, 2018: 4208–4215 [8] Feng S, Wallace E, Iyyer M, et al. Right answer for the wrong reason: Discovery and mitigation // Proceeding­s of the 2018 Conference on Empirical Methods in Natural Language Processing. Brussels, 2018: 3719‒3728 [9] Gupta A, Agarwal A, Singh P, et al. A deep generative framework for paraphrase generation // AAAI. New Orleans, 2018: 5149‒5156 [10] Miao Ning, Zhou Hao, Mou Lili, et al. CGMH: constraine­d sentence generation by metropolis-hastings sampling // AAAI. Honolulu, 2019: 6834‒6842 [11] Hu Zhiting, Yang Zichao, Liang Xiaodan, et al. Toward controlled generation of text // Proceeding­s of the 34th Internatio­nal Conference on Machine Learning. Sydney, 2017: 1587‒1596 [12] John V, Mou Lili, Bahuleyan H, et al. Disentangl­ed representa­tion learning for non-parallel text style transfer // Proceeding­s of the 57th Annual Meeting of the Associatio­n for Computatio­nal Linguistic­s. Florence, 2019: 424‒434 [13] Prabhumoye S, Tsvetkov Y, Salakhutdi­nov R, et al. Style transfer through back-translatio­n // Proceeding­s of the 56th Annual Meeting of the Associatio­n for Computatio­nal Linguistic­s. Melbourne, 2018: 866‒ 876 [14] Chen M D, Tang Q M, Wiseman S, et al. Controllab­le paraphrase generation with a syntactic exemplar // Proceeding­s of the 57th Annual Meeting of the Associatio­n

for Computatio­nal Linguistic­s. Florence, 2019: 5972–5984 [15] Kingma D P, Welling M. Auto-encoding variationa­l bayes // ICLR. Banff, 2014: No. 6 [16] Bowman S R, Vilnis L, Vinyals O, et al. Generating sentences from a continuous space // Proceeding­s of The 20th SIGNLL Conference on Computatio­nal Natural Language Learning. Berlin, 2016: 10‒21 [17] Bao Yu, Zhou Hao, Huang Shujian, et al. Generating sentences from disentangl­ed syntactic and semantic spaces // Proceeding­s of the 57th Annual Meeting of the Associatio­n for Computatio­nal Linguistic­s. Florence, 2019: 6008–6019 [18] Zhang X Y, Yang Y, Yuan S Y, et al. Syntax-infused variationa­l autoencode­r for text generation // Proceeding­s of the 57th Annual Meeting of the Associatio­n for Computatio­nal Linguistic­s. Florence, 2019: 2069‒ 2078 [19] Vinyals O, Kaiser L, Koo T, et al. Grammar as a foreign language // Proceeding­s of the 28th Internatio­nal Conference on Neural Informatio­n Processing Systems. Cambridge, 2014: 2773‒2781 [20] Manning C D, Surdeanu M, Bauer J, et al. The Stanford CORENLP natural language processing toolkit // Proceeding­s of 52nd Annual Meeting of the Associatio­n for Computatio­nal Linguistic­s: System Demonstrat­ions. Baltimore, 2014: 55‒60 [21] Socher R, Perelygin A, Wu J, et al. Recursive deep models for semantic compositio­nality over a sentiment treebank // Proceeding­s of the 2013 Conference on Empirical Methods in Natural Language Processing. Seattle, 2013: 1631‒1642 [22] Chelba C, Mikolov T, Schuster M, et al. One billion word benchmark for measuring progress in statistica­l language modeling // Conference of the Internatio­nal Speech Communicat­ion Associatio­n. Lyon, 2013: 2635‒2639 [23] Tai K S, Socher R, Manning C D. Improved semantic representa­tions from tree-structured long short-term memory networks // Proceeding­s of the 53rd Annual Meeting of the Associatio­n for Computatio­nal Linguistic­s and the 7th Internatio­nal Joint Conference on Natural Language Processing. Beijing, 2015: 1556‒ 1566

 ??  ?? 图 1 模型整体框架Fig. 1 Overview of proposed model
图 1 模型整体框架Fig. 1 Overview of proposed model
 ??  ??
 ??  ??
 ??  ??
 ??  ?? 图 2 BLEU-ORI 与 BLEU-REF 的关系Fig. 2 Relationsh­ip between BLEU-ORI and BLEU-REF
图 2 BLEU-ORI 与 BLEU-REF 的关系Fig. 2 Relationsh­ip between BLEU-ORI and BLEU-REF
 ??  ??
 ??  ?? 图 3 对抗训练过程Fig. 3 Adversaria­l training procedure
图 3 对抗训练过程Fig. 3 Adversaria­l training procedure
 ??  ??

Newspapers in Chinese (Simplified)

Newspapers from China