当前位置: 智能网 > 人工智能 > 什么是文本摘要?为什么要有注意力机制?

什么是文本摘要?为什么要有注意力机制?

放大字体 缩小字体 发布日期:2020-08-27 12:04:48   浏览次数:172
核心提示:2020年08月27日关于什么是文本摘要?为什么要有注意力机制?的最新消息:什么是NLP中的文本摘要自动文本摘要是在保持关键信息内容和整体含义的同时,生成简洁流畅的摘要的任务。 文本摘要目前大致可以分为两种类型:Extractive Summarizati


什么是NLP中的文本摘要

自动文本摘要是在保持关键信息内容和整体含义的同时,生成简洁流畅的摘要的任务。 文本摘要目前大致可以分为两种类型:

Extractive Summarization:重要内容、语句提取。

Abstractive Summarization:文本总结。

Extractive Summarization

由图可以看出,这种方法提取的内容语句来自于原文。

什么是文本摘要?为什么要有注意力机制?

Abstractive Summarization

由图可以看出,这种方法提取的内容语句可能不存在于原文。

什么是文本摘要?为什么要有注意力机制?

Seq2Seq模型

Seq2Seq模型可以处理一切连续型信息,包括情感分类,机器翻译,命名实体识别等。 机器翻译任务中,输入是连续文本序列,输出也是连续文本序列。 命名实体识别中,输入是连续文本序列,输出是连续的标签信息。 所以,我们可以利用Seq2Seq模型,通过输入一段长文本,输出短的摘要,实现文本摘要功能。 下图是典型的Seq2Seq模型架构:

什么是文本摘要?为什么要有注意力机制?

通常我们可以选择RNNs网络的变体GRU或者LSTM,这是因为它们能够通过克服梯度消失的问题来捕获长期依赖性。

Encoder编码器

LSTM中的Encoder读取整个输入序列,其中每个时间step上,都会有一个字输入编码器。然后,他在每个时间step上处理信息,并捕获输入序列中存在的上下文信息。

什么是文本摘要?为什么要有注意力机制?

上一个时间step的隐藏层h1与记忆单元层c1将会用来初始化Decoder。

Decoder解码器

Decoder是LSTM结构的另一部分。它逐字读取整个目标序列,并以一个时间步长预测相同的序列偏移量。 解码器可以在给定前一个单词的情况下预测序列中的下一个单词。解码器的初始输入是编码器最后一步的结果。

什么是文本摘要?为什么要有注意力机制?

在将整个目标序列放入解码器前,还需将[start] 与 [end]这两个特殊的tokens加入序列中,告知模型的开始与结束。模型通过输入的[start]开始预测第一个词,而[end]则表示整个句子的结束。

Deocder的工作流程 

假设输入序列为[x1,x2,x3,x4],将其编码成内部固定长度的向量。 下图显示了每一个time step下Decoder是如何工作的。

什么是文本摘要?为什么要有注意力机制?

3  
 
关键词: 文本 注意力 序列

[ 智能网搜索 ]  [ 打印本文 ]  [ 违规举报

猜你喜欢

 
推荐图文
ITECH直流电源在人工智能领域的应用 基于朴素贝叶斯自动过滤垃圾广告
2020年是人工智能相关业务发展的重要一年 我国人工智能市场规模、行业短板、发展前景一览
推荐智能网
点击排行

 
 
新能源网 | 锂电网 | 智能网 | 环保设备网 | 联系方式