Commit 575a20d7 by 罗应峰

Initial commit

parents
This source diff could not be displayed because it is too large. You can view the blob instead.
\relax
\relax
\bibcite{1}{1}
\bibcite{2}{2}
\bibcite{3}{3}
\bibcite{4}{4}
\bibcite{5}{5}
\bibcite{6}{6}
\bibcite{7}{7}
\bibcite{8}{8}
\bibcite{9}{9}
\bibcite{10}{10}
\bibcite{11}{11}
\@writefile{toc}{\contentsline {section}{\numberline {1}一级标题*字体为4号黑体*标题1}{2}}
\@writefile{toc}{\contentsline {subsection}{\numberline {1.1}二级标题 *字体为5号黑体*标题2}{2}}
\@writefile{toc}{\contentsline {subsubsection}{\numberline {1.1.1}三级标题 *字体为5号宋体*标题3}{2}}
\newlabel{tab1}{{\caption@xref {tab1}{ on input line 283}}{2}}
\providecommand*\caption@xref[2]{\@setref\relax\@undefined{#1}}
\newlabel{fig1}{{\caption@xref {fig1}{ on input line 262}}{2}}
This source diff could not be displayed because it is too large. You can view the blob instead.
% change the look of the captions
% change the look of the captions
\renewcommand{\fnum@figure}{{\zihao{-5}\textbf{Fig.~\thefigure}}}
\renewcommand{\fnum@table}{{\zihao{-5}\textbf{Table \thetable}}}
\let\ocaption\caption
\renewcommand{\caption}[2][]{\ocaption[#1]{{\zihao{-5}\textbf{#2}}}}
\renewcommand{\@makecaption}[2]{%
\vskip\abovecaptionskip%
\sbox\@tempboxa{#1\quad #2}%
\ifdim \wd\@tempboxa >\hsize
#1\quad #2\par%
\else
\global \@minipagefalse
\hb@xt@\hsize{\hfil\box\@tempboxa\hfil}%
\fi
\vskip\belowcaptionskip}
File added
1.引言
1.引言
2.经典神经机器翻译模型及其问题与挑战
2.1经典神经机器翻译模型
2.2神经机器翻译与统计机器翻译异同
2.3问题与挑战
3.神经网络在机器翻译中的应用
3.1循环神经网络
3.2循环神经网络的变形结构
3.3带记忆的神经网络
4.神经机器翻译研究进展
4.1神经机器翻译注意力机制研究进展
4.1.1注意力机制及存在问题
4.1.2减少注意力计算量方法
4.1.3有监督注意力机制
4.1.4融合统计机器翻译词对齐信息
4.1.5过度翻译和翻译不充分问题
4.1.6融合外部记忆方法
4.2字符级神经机器翻译
4.2.1词语编码方案
4.2.2半字符级神经机器翻译
4.2.3字符级神经机器翻译
4.3多语言神经机器翻译
4.3.1单语到多语翻译
4.3.2多语到单语翻译
4.3.3多语到多语翻译
4.4规模受限词语表问题
4.4.1未登录词问题
4.4.2实现大规模翻译词典
4.4.3实现长句子翻译
4.5融合外部先验知识方法
4.5.1融合统计机器翻译方法
4.5.2增加记忆知识库
4.5.3融合双语词典方法
4.5.4融合语言学知识
4.5.5融合单语语料方法
4.6资源稀缺条件下的神经机器翻译
4.7针对评价指标的训练方法
4.8新模型与新架构
4.8.1多模态神经机器翻译
4.8.2非循环神经网络神经机器翻译模型
4.8.3新的学习范式
4.9不同的模型和系统对比分析
5.基于神经网络的机器翻译评测
6.未来研究方向
7.小结
1.自动文本摘要问题定义
2.自动文本摘要技术和方法
2.1抽取式方法
2.1.1基于主题模型的方法
2.1.2基于图的方法
2.1.3基于特征评分的方法
2.1.4基于序列标注的方法
2.1.5基于分类的方法
2.1.6基于启发式算法
2.1.7基于线性规划的方法
2.1.8基于次模函数的方法
2.1.9基于深度学习的方法
2.2生成式方法
2.2.1基于图的方法
2.2.2基于线性规划的方法
2.2.3基于语义的方法
2.2.4基于模板的方法
2.2.5基于深度学习的方法
2.2.5.1基于RNN结构
2.2.5.2基于其他结构
2.3小结
3.自动文本摘要数据集
4.自动文本摘要评价方法
5.自动文本摘要面临的挑战及其发展趋势
6.总结
0.引言
1.基于视觉的文本生成框架
1.1基于模板匹配和检索的框架
1.2端到端的自动生成框架
1.3融合神经网络的组合式的框架
2.基于视觉的文本生成的关键问题
2.1视觉端的特征表示
2.2视觉与文本的特征对齐
2.3引入强化学习的图像描述生成
2.4多样化图像描述生成
3.图像描述生成模型的性能评价
3.1图像描述生成的评测语料集
3.2图像描述生成的评价方法
4.图像描述生成模型的主要发展过程
5.结论
风格控制
多模态生成
迭代式生成
现代诗生成
强化学习
中国诗歌简介
https://wenku.baidu.com/view/5b911dc3bb0d4a7302768e9951e79b89680268e3.html
中国诗歌格律
https://max.book118.com/html/2017/0429/103133114.shtm
\ No newline at end of file
鉴于机器翻译的复杂性和应用前景,学术界和产业界都把该领域作为重点研究方向,成为当前自然语言处理最活跃的研究领域之。
鉴于机器翻译的复杂性和应用前景,学术界和产业界都把该领域作为重点研究方向,成为当前自然语言处理最活跃的研究领域之。
近年来,神经网络在图像识别3、语音识别们等领域取得巨大成功,同时学者们也将该技术应用在自然语言处理任务上,如语言模型、词语表示、序列标注等任务,并取得了令人鼓舞的成绩。
该文通过对现有的跨语言词向量模型硏究的文献口顾,综合论述了近年来跨语言词向量模型、方法、技术的发展。
基于此,为了便于研究者在现有研究工作的基础上取得更好的进展,非常有必要 对目前自动文摘的研究成果进行全面的分析和总结。因此,我们查阅整理了近年来学术界相关的研究工作,包括自然语言处理、人工智能等相关领域的国际会议和学术期刊,对这些研究成果按照摘要产生的技术算法进行了详细的分类以及优缺点的对比与总结。除此之外,本文对自动文本摘要研究常用的数据集、评价方法进行归纳总结,最后对自动文摘任务未来的研究趋势进行展望与总结。
诗歌风格是一种高层次的抽象语义信息,中国诗歌创作大多注重控制诗的内容连贯,而忽视了诗人的诗风格。中国诗人在写诗的过程中,往往会带来个人的情感和风格,每个诗人都有不同的写诗方式和风格。我们面临的主要挑战是赋予诗歌生成系统人工智能学习诗歌风格,这是一种高层次的抽象语义表征。
写诗虽然是一种艺术活动,但在很大程度上是一个经验过程,如果有足够的量化数据可供学习,那么就可以被机器实际地模仿。
这两种方法的主要区别在于,符号学和概率学侧重于词汇的表面形式,即个体特征,而神经学侧重于词汇和句子的内在意义,从而加深对诗歌和诗歌生成过程的理解。
诗歌的风格是由其表面形式的选择和使用来决定的,而不是其内在的意义,神经模型倾向于通过选 择最常用的词(在模型的训练集中)来生成流畅的句子,这些词可以表达意思,但不太关心表达的风格。
在传统的神经生成模型中增加了一个记忆结构,该记忆结构是专门构造的,只包含与所需风格相对应的相关样本诗歌。
除了构建人工智能的长期目标外,对这一任务的研究也可以成为更好地分析诗歌和理解人类写作的内在机制的辅助工具。
基于MLE的模型往往会记住诗歌语料库的 常见模式,如高频双格词和停止词,失去了生成诗歌的多样性和创新性。在评价时,人类专家通常集中在序列层次(诗行)或语篇层次(整首诗),而MLE优化了词层损失,未能从更广泛的角度看待生成的诗歌。二是标准不匹配,人类通常根据一些标准来评价诗歌,而不是可能性。
在同一主题下以不同风格产生不同句子的能力是人类写作的一个重要特征。
视觉是诗歌创作的共同灵感来源。因为我们试图用对象和情感作为关键词来控制生成,所以最终的结果会与关键词相对应。然而,有两个可能的原因可能导致失败:低可信度的关键字和罕见的关键字。风景和情感一样,是中国古典诗歌的核心组成部分。古话说,风景是媒介,情感是诗的本源
\ No newline at end of file
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论