请选择 进入手机版 | 继续访问电脑版
搜索
房产
装修
汽车
婚嫁
健康
理财
旅游
美食
跳蚤
二手房
租房
招聘
二手车
教育
茶座
我要买房
买东西
装修家居
交友
职场
生活
网购
亲子
情感
龙城车友
找美食
谈婚论嫁
美女
兴趣
八卦
宠物
手机

闭月堂 卡布西游宿命之约 机器不学习:基于深度学习的智能问答系统 中朝关系

[复制链接]
查看: 773|回复: 2

216

主题

458

帖子

894

积分

等待验证会员

积分
894
发表于 2019-4-13 22:46 | 显示全部楼层 |阅读模式
| 导语 问答系统是信息检索的一种高级形式,可以加倍正确地了解用户用自然说话提出的题目,并经过检索语料库、常识图谱或问答常识库返回简洁、正确的婚配答案。相较于搜索引擎,问答系统能更好地了解用户提问的实在意图, 进一步能更有用地满足用户的信息需求。问答系统是今朝野生智能和自然说话处置范畴中一个倍受关注并具有普遍成长远景的研讨偏向。
<h1>一、引言

问答系统处置的工具首要包括用户的题目以及答案。按照题目所属的常识范畴,问答系统可分为面向限制域的问答系统、面向开放域的问答系统、以及面向常用题目集(Frequently Asked Questions, FAQ)的问答系统。根据答案来历,问答系统可分为基于结构化数据的问答系统如KBQA、基于文本的问答系统如机械阅读了解、以及基于问答对的问答系统如FAQ问答。此外,依照答案的反应机制分别,问答系统还可以分为基于检索式的问答系统和基于天生式的问答系统。
本文首要论述FAQBot检索型问答系统的相关研讨和处置框架,以及深度进修在其中的利用。FAQ检索型问答是按照用户的新Query去FAQ常识库找到最合适的答案并反应给用户。如图所示:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224603s2eapsmvq5gapaop


其中,Qi是常识库里的标准问,Ai是标准问对应的答案。
具体处置流程为:

  • 候全集离线建好索引。采用Lucene引擎,为数万个类似问调集建立字级别倒排索引。Lucene引擎的性能可以将召回时候控制在毫秒级别,大大减轻后续模块的计较压力;
  • 线上收到用户 query 后,初步召回一批候全集作为粗排成果传入下一模块停止进一步切确排序;
  • 操纵matching模子计较用户query和FAQ常识库中题目或答案的婚配水平;
  • 操纵ranking 模子对候全集做 rerank 并返回 topk个候选答案。
可以看出,FAQ问答系统的焦点使命可以笼统为文本婚配使命。传统文本婚配方式如信息检索中的BM25,向量空间模子VSM等方式,首要处理字面类似度题目。但是由于中文寄义的丰富性,凡是很难间接按照关键字婚配大概基于机械进修的浅层模子来肯定两个句子之间的语义类似度。近几年,操纵神经收集,特别是深度进修模子进修文本中深层的语义特征,对文本做语义暗示落后行语义婚配的方式起头被提出并利用于检索式问答系统。基于深度进修的模子一方面可以节省野生提取特征的大量人力物力。此外,相比于传统方式,深度文本婚配模子可以从大量的样本中自动提取出词语之间的关系,并能连系短语婚配中的结构信息和文本婚配的条理化特征,挖掘传统模子很难挖掘的隐含在大量数据中寄义不明显的特征,更邃密地描写文本婚配题目。
<h1>二、深度进修文本婚配

FAQ问答系同一般有两种处理思绪,一种是类似题目婚配,即对照用户题目与现有FAQ常识库中题目标类似度,返回用户题目对应的最正确的答案,这类思绪类似于text paraphrase;另一种是题目答案对婚配,即对照用户题目与FAQ常识库中答案的婚配度,返回用户题目对应的最正确的答案,这类思绪为答案挑选,即QA婚配。这两个范例相通的地方在于都可以看做文本语义婚配,很多模子能同时在两个使命上都获得很好的结果,区分在于QA婚配存在题目与答案分歧质的题目。
下面总结一些基于深度进修的文本婚配工作,希望可以举一反三,若有遗漏或毛病,接待补充或指出。
2.1 模子框架
概括来说,深度语义婚配模子可以分为两大类,别离是representation-based method 和 interaction-based method。
1) Represention-based Method
框架图以下:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224603binihnhcp6p9c9tv


这类算法首先将待婚配的两个工具经过深度进修模子停止暗示,以后计较这两个暗示之间的类似度即可输出两个工具的婚配度。这类方式下,加倍偏重对暗示层的构建,使其尽能够充实地将待婚配的两个工具都转换成等长的语义暗示向量。然后在两个工具对应的两个语义暗示向量根本上,停止婚配度的计较。针对婚配度函数f(x,y)的计较,凡是有两种方式,以下图所示:一种是经过类似度怀抱函数停止计较,现实利用进程中最常用的就是 cosine 函数,这类方式简单高效,而且得分区间可控意义明白;另一种方式是将两个向量再接一个多层感知器收集(MLP),经过数据去练习拟合出一个婚配度得分,加倍灵活拟合才能更强,但对练习的要求也更高。

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224603qbdw45of0bzfroig


Represention-based Extended
上述的representation-based method存在的题目是间接基于句子的暗示太粗糙,没法正确停止文本婚配使命。受信息检索范畴的启发,连系主题级别和单词级此外婚配信息凡是可以获得更好的表示。因而进一步对句子暗示停止扩大,加入细粒度婚配信息。框架图以下:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224603tqhyux0oi19yr0h0


2) Interaction-based Method
框架图以下:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224604dsehzggcd2cn2gg1


基于交互的方式是经过Interaction来对文底细似性建模。该方式更夸大待婚配的两个句子获得更充实的交互,以及交互后的婚配。在暗示层不会将句子转换成一个整体暗示向量,一般情况下会保存和词位置相对应的一组暗示向量。首先基于暗示层采用DNN或间接由word embedding获得的句子暗示,和词位置对应的每个向量表现了以本词语为焦点的一定的全局信息;然后对两个句子按词对应交互,由此构建两段文本之间的 matching pattern,这里面包括了更细致更部分的文本交互信息;基于该婚配矩阵,可以进一步利用DNN等来提取更高条理的婚配特征,最初计较获得终极婚配得分。Interaction-based 方式婚配建模加倍细致、充实,一般来说结果更好,但计较本钱增加,加倍合适一些结果精度要求高但对计较性能要求不高的场景。
下面总结了分歧范例的深度进修文本婚配模子。可以看出,深度文本婚配现有工作很多,本文将对近几年的部合作作停止具体先容,其他可参考对应文献停止深入阅读。

  • representation-based:DSSM[1]; CDSSM[2]; ARC I[3]; CNTN[4]; LSTM-RNN[5]
  • representation-based extension:MultiGranCNN[6]; MV-LSTM[7]
  • interaction-based:ARC II[8]; MatchPyramid[9]; Match-SRNN[10]; DeepMatch[11]; ABCNN[12]; QA-LSTM/CNN-attention[13,14]; AP[15]; AICNN[16]; MVFNN[17]; BiMPM[18]; DQI[22]; DIIN[23]
2.2 模子先容
2.2.1 ABCNN[12]
首先先容BCNN,它是ABCNN模子的根本,即未增加Attention的模子。模子结构如图所示:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224604lm3pm0a0sunsamj3


输入层:将输入句子停止padding后转化成词向量即可;
卷积层:对句子暗示停止卷积,利用wide conv的方式;
pooling层:论文中利用了两种pooling方式,一种是最初一个pooling层为all-ap,还有一种是中心pooling层为w-ap。区分就是池化时的窗口巨细分歧;
输出层:接logistic 回归层做2分类。
ABCNN是在BCNN的根本上加了两种attention机制。模子成果以下图:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224604mv5kzd6qzde5ztpt


(1)在输入层加入attention
其道理为将输入拓展成双通道。新增加的通道是attention feature map,即上图中的蓝色部分。首先计较attention matrix A,其每个元素Aij代表句子1中第i个单词对句子二中第j个单词的match_score,这里利用了Euclidean间隔计较。然后再别离计较两个句子的attention feature map。利用两个矩阵W0,W1别离和A还有 A的转置相乘,获得与原本feature尺寸不异的feature map。W0和W1都是模子参数,可以利用不异的W,即同享两个矩阵。这样我们就将原始的输入拓展成了两个通道。
(2)在pooling层加入attention
Attention matrix A的计较方式与上述不异,获得A后需要为两个句子别离计较attention权重向量,如上图中的两个虚线部分col-wise sum和row-wise sum。这两个向量中的每个元素别离代表了响应单词在做Average Pooling时的权重。相当于pooling不再是简单的Average Pooling,而是按照计较出的Attention权重向量获得的pooling。
2.2.2LSTM/CNN,attention[13,14]

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224604b6zioqqzbo3exmim


给定一个(q,a)pair,q是题目,a是候选答案。首先获得它们的词向量,再利用biLSTM停止encoder,天生题目和答案的散布式暗示,然后操纵余弦类似度来权衡它们的间隔。练习方针是hinge loss。

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224604pv810vghhn0nhn4g


在biLSTM暗示输出的根本上进一步利用CNN,CNN可以获得biLSTM输出的向量之间的部分信息。从而给出题目和答案的更多复合暗示。

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224604o1izxe2f1an0hxzy


当biLSTM模子在题目和答案上长间隔传布依靠关系时,隐藏向量的牢固宽度成为瓶颈。经过静态调剂题目答案的更多信息部分,可以利用留意力机制来减缓这类弱点。在max/mean pooling前,每个biLSTM输出向量将乘以softmax权重,该权重由biLSTM的题目嵌入获得。
2.2.3 Attentive Pooling Networks[15]
QA_LSTM with attention中attention的设想是经过题目对答案的影响停止特征加权,可是它疏忽了答案对题目标影响。Attentive pooling networks同时将attention利用到题目和答案,进步算法的正确率。经过同时进修两种输入的暗示以及它们之间的类似性丈量,其创新点在于将Q和A这两个输入经过参数矩阵U投射到一个配合的暗示空间,用Q和A的representation机关了一个矩阵G,别离对G的row和column做max pooling, 这样就能别离能获得Q和A的attention vector。AP_BILSTM模子框架图以下:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224604ct8cwtd7rh93a7jz


AP_BILSTM模子的设想首先将题目和答案经过BILSTM抽取特征,然后经过两者的特征计较soft alignment,获得的G矩阵暗示了题目和答案相互感化的成果。对该矩阵的列取最大,即为答案对题目标重要性得分,同理对该矩阵行取最大即为题目对答案的重要性得分。这两个向量再作为attention向量别离和题目和答案暗示相乘后获得题目和答案新的暗示,最初再做婚配。
2.2.4 AICNN[16]
之前关于答案挑选的研讨凡是疏忽了数据中普遍存在的冗余和噪声题目。 在本文中,设想一种新奇的留意力交互式神经收集(AI-NN),以专注于那些有助于回答挑选的文本片断。 题目答案的暗示首先经过卷积神经收集(CNN)或其他神经收集架构来进修。然后AI-NN进修两个文本的每个配对片断的相互感化。 以后利用逐行和逐列池化来收集交互信息。以后采用留意机制来权衡每个细分的重要性,并连系相互感化来获得问答的牢固长度暗示。 模子框架图以下:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605zizkzknkt76iuqyc


2.2.5 MVFNN[17]
上述基于神经收集的方式经过计较留意力来斟酌信息的几个分歧方面。 这些分歧范例的留意力总是简单地总结而且可以被视为“单一视图”,不能从多个方面来审阅题目和候选答案,致使严重的信息丧失。 要克服这个题目,此模子提出了一种多视图融合神经收集,其中每个关注组件天生QA对的分歧“视图”,而且融合QA自己的特征暗示以构成更整体的暗示。模子框架图以下:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605wpl45ri6is2oalks


机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605c8u57u68r422557p


对于一个题目,能够会有一堆视图来模拟其响应的答案。 在此模子中,按照直觉构建了四个视图。 这四个视图被命名为查询范例视图,查询自动词视图,查询语义视图和co-attention视图。最初利用fusion RNN模子来对这些视图停止融合。经过度轻视图的融合,能对两个工具停止更正确的建模。
2.2.6 BiMPM[18]
针对基于交互这一类方式,通常为先对两个句子的单元相互婚配,以后再聚集为一个向量后做婚配。这类方式可以捕捉到两个句子之间的交互特征,可是之前的方式只是基于词级此外婚配可是疏忽了其他层级的信息。此外,婚配只是基于一个偏向疏忽了相反的偏向。一种双向的多角度婚配模子bilateral multi-perspective matching(BiMPM)处理了这方面的不敷。模子框架以下图:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605mly0leiiqjurr89q


模子自下而上一共包括五层,别离为单词暗示层、高低文暗示层、婚配层、聚合层和猜测层,其中婚配层为模子的焦点,共提出了四种婚配战略,这里的婚配可以看成是attention机制。
单词暗示层:利用GloVe模子练习向量,对字符embedding停止随机初始化,单词中的字符组成单词的向量暗示作为LSTM收集的输入。
高低文暗示层:利用BiLSTM对p和q停止暗示。
婚配层:模子的焦点层,包括四种婚配战略,别离是:Full-Matching、Maxpooling-Matching、Attentive-Matching和 Max-Attentive-Matching。四种婚配战略以下图:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605h8x8w4p7z98eww6p


聚合层:操纵BiLSTM对婚配层的输出向量停止处置,获得p、q前向和后向最初一个time step的输出停止毗连后输入到猜测层。
猜测层:softmax层,softmax函数分类。
上述是对近几年部分深度文本婚配模子的总结,接下来则先容基于深度模子的FAQBot。
三、基于深度进修的FAQBot实现
3.1 模子化流程

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605mwrt9rhz5zy9js9h


3.2 数据获得及机关
3.2.1 数据获得
对于有大量问答记录的场景例如智能客服,这些记录里面有很多高频的常识点(常识点包括题目和答案)。这些高频的常识点对应的问法凡是并不唯一。即常识库的结构为一个题目调集对应同一个答案。针对FAQ数占有以下三种数据范例:

  • 标准问q:FAQ中题目标标准用户query
  • 答案A: FAQ中标准问对应的的标准回答
  • 类似问q1,q2...: 跟标准问语义类似可用同一答案回答的query

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605c6yk6q62z2obu2pz


其中,标准问q、对应对案A以及该标准问q对应的一切类似问q1,q2,...,一路组成一个常识点。一个常识点的样例见下图:
3.2.2 数据机关
数据机关包括了两个方面:
(1)练习集测试集机关
测试集:将类似问中的第一条类似问q1作为query,从FAQ常识库的一切常识点中经过Lucene召回30个常识点作为候全集
练习集:包括两部分,一部分是正例的机关,另一部分是负例的机关,这两部分数据的机关方式将间接影响到终极的结果。在正例的机关中,由于每个常识点的第一个类似问是作为测试集合出现的,所以在机关练习集的时辰解撤除一切常识点中的第一条类似问q1。这样的话,有多于2个类似问的常识点还有多于的其他类似问可以用来机关练习集。将这些识点中的标准问和从类似问的第二条起头(即[q2,q3,...,qn])可以依照分歧方式机关出正例和负例。
练习集正例的机关:去除一切常识点中的第一条类似问q1,其他类似问及标准问两两组分解正例pair对;对于类似问多的常识点停止剪切。
练习集负例的机关的方式包括:

  • 按Jaccard间隔召回;
  • 按Lucene召回;
  • 从其他常识点中随机挑选;
  • 依照正例中各题目出现的比例从其他常识点中采样挑选;
  • 每个句子和句子中的名词/动词组成pair对;
  • 针对常识点散布不平衡的题目,对类似问很多的常识点停止类似问剪切。
(2)数据增强战略
由于深度进修需要较多的数据,为了增强数据,我们采用了以下战略:

  • 交换两个句子之间的顺序;
  • 对句子停止分词,重新组合天生新的句子;
  • 打乱句子的顺序,随机抽取句子。
3.3 模子建立
3.3.1 模子框架
根基框架一般都是将待婚配的两个句子别离利用两个encoder来获得对应context信息,然后将两者的context信息停止婚配,获得婚配后的特征信息。也可以在婚配以后的特征前面加上一些其他的传统文本特征,将一切这些特征停止concat。最初接上softmax层,做终极的分类。模子的框架以下图所示:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224605wm7c3nnjfna4yccb


3.3.2 模子建立及迭代优化
Embedding层:利用word2vec和fasttext练习词向量和字符向量。
Encoder层:卷积具有部分特征提取的功用, 所以可用 CNN 来提取句子中类似 n-gram 的关键信息,斟酌文本的高低文信息。因而我们采用textCNN[19]来对句子停止编码暗示,encoder进程见下图:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224606r0qbb00qj98le6zx


Matching层:在获得两个句子的暗示后,要针对两个句子的暗示停止matching操纵。可以按照需要机关出很多品种型的matching方式以下图[20],我们采用相对照力简单的element-wise相加和相乘的方式来停止matching。
join层:在matching层以后获得的两个句子的配合暗示以后,进一步引入额外的传统特征停止join操纵,类似于下图[21]。

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224606swud75j0mzdv4vqw


引入interaction:上述步调对两个句子encoder时没有斟酌两个句子之间的关联。因而进一步引入更细致更部分的句子交互信息,从而能捕捉到两个句子之间的交互特征,按照交互获得的矩阵获得两个句子新的暗示。如图:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224606xc9opybuoczcuzpc


引入attention机制:采用留意机制利用权重向量来权衡句子分歧部分重要性的分歧。attention的计较首要思惟相沿了AICNN和ABCNN中的几种attention,别离是feature的attention,interaction后新的暗示和句子原暗示之间的attention。
<h1>四、总结与展望

4.1 数据层面

  • 建立加倍公道的常识库:每个常识点只包括一个意图,且常识点之间没有穿插,歧义,冗余等轻易形成混淆的身分
  • 标注:为每个FAQ堆集一定数目的有代表性的类似问
  • 前期的延续保护:包括新FAQ发现,原FAQ的合并、拆分、改正等
4.2 模子层面

  • 进一步捕捉syntactic level和semantic level的常识如语义脚色标注(SRL, semantic role labelling)和词性标注(POS, part of speech tagging)等,引入到文本的暗示当中,进步文本语义婚配的结果
  • 今朝大部分检索行问答的工作做的是题目和题目婚配,或是题目和答案婚配。后续可以同时引入题目和答案的信息停止建模,如图:

机械不进修:基于深度进修的智能问答系统

机器不学习:基于深度学习的智能问答系统  科技资讯 224606fl5tcwlz1757zs9k


<h1>参考文献

[1] Huang P S, He X, Gao J, et al. Learning deep structured semantic models for web search using clickthrough data[C]// ACM International Conference on Conference on Information & Knowledge Management. ACM, 2013:2333-2338.
[2] Shen Y, He X, Gao J, et al. A Latent Semantic Model with Convolutional-Pooling Structure for Information Retrieval[C]// Acm International Conference on Conference on Information & Knowledge Management. ACM, 2014:101-110.
[3] Hu B, Lu Z, Li H, et al. Convolutional Neural Network Architectures for Matching Natural Language Sentences[J]. Advances in Neural Information Processing Systems, 2015, 3:2042-2050.
[4] Qiu X, Huang X. Convolutional neural tensor network architecture for community-based question answering[C]// International Conference on Artificial Intelligence. AAAI Press, 2015:1305-1311.
[5] Palangi H, Deng L, Shen Y, et al. Deep Sentence Embedding Using Long Short-Term Memory Networks: Analysis and Application to Information Retrieval[J]. IEEE/ACM Transactions on Audio Speech & Language Processing, 2016, 24(4):694-707.
[6] Yin W, Schütze H. MultiGranCNN: An Architecture for General Matching of Text Chunks on Multiple Levels of Granularity[C]// Meeting of the Association for Computational Linguistics and the, International Joint Conference on Natural Language Processing. 2015:63-73.
[7] Wan S, Lan Y, Guo J, et al. A Deep Architecture for Semantic Matching with Multiple Positional Sentence Representations[J]. 2015:2835-2841.
[8] Hu B, Lu Z, Li H, et al. Convolutional Neural Network Architectures for Matching Natural Language Sentences[J]. Advances in Neural Information Processing Systems, 2015, 3:2042-2050.
[9] Pang L, Lan Y, Guo J, et al. Text Matching as Image Recognition[J]. 2016.
[10] Wan S, Lan Y, Xu J, et al. Match-SRNN: Modeling the Recursive Matching Structure with Spatial RNN[J]. Computers & Graphics, 2016, 28(5):731-745.
[11] Lu Z, Li H. A deep architecture for matching short texts[C]// International Conference on Neural Information Processing Systems. Curran Associates Inc. 2013:1367-1375.
[12] Yin W, Schütze H, Xiang B, et al. ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs[J]. Computer Science, 2015.
[13] Tan M, Santos C D, Xiang B, et al. LSTM-based Deep Learning Models for Non-factoid Answer Selection[J]. Computer Science, 2015.
[14] Tan M, Santos C D, Xiang B, et al. Improved Representation Learning for Question Answer Matching[C]// Meeting of the Association for Computational Linguistics. 2016:464-473.
[15] Santos C D, Tan M, Xiang B, et al. Attentive Pooling Networks[J]. 2016.
[16] X Zhang , S Li , L Sha , H Wang. Attentive Interactive Neural Networks for Answer Selection in Community Question Answering[C]// International Conference on Artificial Intelligence.
[17] L Sha , X Zhang , F Qian , B Chang , Z Sui. A Multi-View Fusion Neural Network for Answer Selection[C]// International Conference on Artificial Intelligence.
[18] Wang Z, Hamza W, Florian R. Bilateral Multi-Perspective Matching for Natural Language Sentences[C]// Twenty-Sixth International Joint Conference on Artificial Intelligence. 2017:4144-4150.
[19] Kim Y. Convolutional Neural Networks for Sentence Classification[J]. Eprint Arxiv, 2014.
[20] Wang S, Jiang J. A Compare-Aggregate Model for Matching Text Sequences[J]. 2016.
[21] Severyn A, Moschitti A. Learning to Rank Short Text Pairs with Convolutional Deep Neural Networks[C]// The International ACM SIGIR Conference. ACM, 2015:373-382.
[22] Xiaodong Zhang, Xu Sun, Houfeng Wang. Duplicate Question Identification by Integrating FrameNet with Neural Networks[C]//In the Thirty-Second AAAI Conference on Artificial Intelligence (AAAI-18)
[23] Gong Y, Luo H, Zhang J. Natural Language Inference over Interaction Space[J]. 2018.
原文公布于微信公众号 - 腾讯知文(tencent_wisdom)
感谢您的阅读
回复

使用道具 举报

232

主题

506

帖子

950

积分

等待验证会员

积分
950
发表于 2019-4-13 22:39 | 显示全部楼层
转发了
回复 支持 反对

使用道具 举报

303

主题

473

帖子

920

积分

高级会员

Rank: 4

积分
920
发表于 2019-4-13 22:39 | 显示全部楼层
转发了
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2006-2014 快猫网-人工智能和智能硬件领域的互联网科技媒体 版权所有 法律顾问:高律师 客服电话:0791-88289918
技术支持:迪恩网络科技公司  Powered by Discuz! X3.2
快速回复 返回顶部 返回列表