Commit e8cd89f9 by xiaotong

update open-source systems and conferences (section 1, book)

parent 2ec567fe
......@@ -485,25 +485,25 @@ His house is on the south bank of the river.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\vspace{0.5em}
\begin{itemize}
\item NiuTrans:NiuTrans\cite{Tong2012NiuTrans}是由东北大学自然语言处理实验室自主研发的SMT系统,该系统可支持基于短语的模型、基于层次结构的模型以及基于句法树结构的模型。由于使用C++语言开发,所以该系统运行时间快,所占存储空间少且易于上手。系统中内嵌有$n$-gram语言模型,故无需使用其他的系统即可对语言进行建模。\url{http://www.niutrans.com/}
\item NiuTrans.SMT:NiuTrans\cite{Tong2012NiuTrans}是由东北大学自然语言处理实验室自主研发的SMT系统,该系统可支持基于短语的模型、基于层次结构的模型以及基于句法树结构的模型。由于使用C++语言开发,所以该系统运行时间快,所占存储空间少且易于上手。系统中内嵌有$n$-gram语言模型,故无需使用其它的系统即可对语言进行建模。\url{http://www.niutrans.com/}
\vspace{0.5em}
\item Moses:Moses\cite{Koehn2007Moses}(主要)是由爱丁堡大学的SMT 组开发的,具有开拓性的SMT系统,最新的Moses系统支持很多的功能。例如,它既支持基于短语的模型,也支持基于句法的模型。Moses 提供因子翻译模型(factored translation model),该模型可以在不同的层次中使用不同的信息。此外,它允许将混淆网络和字格(word lattices)作为输入,可缓解系统的1-best输出中的错误。Moses还提供了很多有用的脚本和工具来支持其他的功能。\url{http://www.statmt.org/moses/}
\item Moses:Moses\cite{Koehn2007Moses}统计机器翻译时代最著名的系统之一,(主要)由爱丁堡大学的机器翻译团队开发。最新的Moses系统支持很多的功能,例如,它既支持基于短语的模型,也支持基于句法的模型。Moses 提供因子化翻译模型(factored translation model),该模型可以在不同的层次中使用不同的信息。此外,它允许将混淆网络和字格(word lattices)作为输入,可缓解系统的1-best 输出中的错误。Moses 还提供了很多有用的脚本和工具来支持其他的功能。\url{http://www.statmt.org/moses/}
\vspace{0.5em}
\item Joshua:Joshua是另一种先进的开源SMT系统,是由约翰霍普金斯大学的语言和语音处理中心开发。由于Joshua是由Java语言开发,所以它在不同的平台上运行或开发时具有良好的可扩展性和可移植性。此外,Java 的使用提供了一种简单的方法(相对C/C++语言)来实验新的方法策略,以得到更好的效果\url{http://joshua.sourceforge.net/Joshua/Welcome.html}
\item Joshua:Joshua是由约翰霍普金斯大学的语言和语音处理中心开发的层次短语翻译系统。由于Joshua是由Java语言开发,所以它在不同的平台上运行或开发时具有良好的可扩展性和可移植性。Joshua也是使用非常广泛的通机器翻译系统之一\url{http://joshua.sourceforge.net/Joshua/Welcome.html}
\vspace{0.5em}
\item SilkRoad:SilkRoad是由中国五个大学(CAS-ICT,CAS-IA,CAS-IS,XMU 和HIT)联合开发的,基于短语的SMT 系统。该系统是亚洲地区第一个开源的SMT系统,其主旨为支持中文-外文的翻译。它有几个有用的部分,比如分词模块(可使使用者更容易的搭建中文-外文的机器翻译系统)。此外,SilkRoad还支持多解码器和规则提取并为不同组合的子系统提供了不同的实验选择。\url{http://www.nlp.org.cn/project/project.php?projid=14}
\item SilkRoad:SilkRoad是由中国五个机构(中科院计算所、中科院软件所、中科院自动化所、厦门大学和哈尔滨工业大学)联合开发的,基于短语的统计机器翻译系统。该系统是中国乃至亚洲地区第一个开源的统计机器翻译系统。SilkRoad支持多解码器和规则提取并为不同组合的子系统提供了不同的实验选择。\url{http://www.nlp.org.cn/project/project.php?projid=14}
\vspace{0.5em}
\item SAMT:SAMT是由卡内基梅隆大学MT小组开发的语法增强的SMT系统(syn\\tax-augmented SMT system)。SAMT在解码的时候使用目标树来生成翻译规则,而不严格遵守目标语言的语法。SAMT的一个亮点是它提供了简单但高效的方式来利用在SMT中句法信息,并且在一些任务中这样做有很好的结果,其效果甚至超过了基于层次短语的系统。由于SAMT在hadoop中实现,它可受益于跨计算机群的大数据集的分布式处理。\url{http://www.cs.cmu.edu/zollmann/samt/}
\item SAMT:SAMT是由卡内基梅隆大学机器翻译团队开发的语法增强的统计机器翻译系统。SAMT在解码的时候使用目标树来生成翻译规则,而不严格遵守目标语言的语法。SAMT 的一个亮点是它提供了简单但高效的方式来利用在机器翻译中句法信息。由于SAMT在hadoop中实现,它可受益于跨计算机群的大数据集的分布式处理。\url{http://www.cs.cmu.edu/zollmann/samt/}
\vspace{0.5em}
\item cdec:cdec\cite{Dyer2010cdec}是一个强大的解码器,是由Chris Dyer 和他的合作者们一起开发。cdec的主要的功能是它使用了翻译模型的一个统一的内部表示,并为实验结构预测问题的各种模型和算法提供了框架。所以,cdec也可以在SMT中被用来做一个对齐器或者一个更通用的学习框架。此外,cdec由于使用高效的C++语言编写,所以非常快。\url{http://cdec-decoder.org/index.php?title=MainPage}
\item cdec:cdec\cite{Dyer2010cdec}是一个强大的解码器,是由Chris Dyer 和他的合作者们一起开发。cdec的主要的功能是它使用了翻译模型的一个统一的内部表示,并为实验结构预测问题的各种模型和算法提供了框架。所以,cdec也可以在被用来做一个对齐系统或者一个更通用的学习框架。此外,cdec由于使用高效的C++语言编写,运行速度较快。\url{http://cdec-decoder.org/index.php?title=MainPage}
\vspace{0.5em}
\item Phrasal:Phrasal是由斯坦福自然语言处理小组开发的系统。除了传统的基于短语的模型,Phrasal还支持了基于非层次短语的模型,这种模型将基于短语的翻译延伸到短语中断翻译(phrasal discontinues translation)。通过这种方式,它可以在未见的数据集上得到更好的泛化甚至可以处理在层次结构模型中丢失的信息\url{http://nlp.stanford.edu/phrasal/}
\item Phrasal:Phrasal是由斯坦福自然语言处理小组开发的系统。除了传统的基于短语的模型,Phrasal还支持了基于非层次短语的模型,这种模型将基于短语的翻译延伸到非连续的短语翻译(phrasal discontinues translation),增加了模型的泛化能力\url{http://nlp.stanford.edu/phrasal/}
\vspace{0.5em}
\item Jane:Jane是另一个由C++语言开发的基于短语和基于层次短语的模型。它是由亚琛工业大学的人类语言技术与模式识别小组开发的。Jane提供了很多非常有趣的功能并在一些任务中有很好的成果\url{http://www-i6.informatik.rwth-aachen.de/jane/}
\item Jane:Jane是一个基于短语和基于层次短语的机器翻译系统,由亚琛工业大学的人类语言技术与模式识别小组开发。Jane提供了系统融合模块,因此可以非常方便的对多个系统进行融合\url{http://www-i6.informatik.rwth-aachen.de/jane/}
\vspace{0.5em}
\item GIZA++:GIZA++是由moses-smt团队研发的用于训练IBM模型1-5和HMM单词对齐模型的SMT工具包\url{https://github.com/moses-smt/giza-pp}
\item GIZA++:GIZA++是Franz Och研发的用于训练IBM模型1-5和HMM单词对齐模型的工具包。在早期,GIZA++是所有统计机器翻译系统中词对齐的标配工具\url{https://github.com/moses-smt/giza-pp}
\vspace{0.5em}
\item UCAM-SMT:UCAM-SMT是由剑桥大学统计机器翻译系统。该系统完全基于有限状态自动机实现,因此非常适合对搜索空间进行有效的表示。\\ \url{http://ucam-smt.github.io/}
\item HiFST:HiFST是剑桥大学开发的统计机器翻译系统。该系统完全基于有限状态自动机实现,因此非常适合对搜索空间进行有效的表示。\\ \url{http://ucam-smt.github.io/}
\vspace{0.5em}
\item FastAlign:FastAlign是一个快速,无监督的词对齐工具,由卡内基梅隆大学开发。\url{https://github.com/clab/fast\_align}
\end{itemize}
......@@ -513,37 +513,33 @@ His house is on the south bank of the river.
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\vspace{0.5em}
\begin{itemize}
\item GroundHog:GroundHog\cite{bahdanau2015neural}是基于Theano框架,由蒙特利尔大学LISA 实验室使用Python语言编写的一个框架,旨在提供灵活而高效的方式来实现复杂的循环神经网络模型。它提供了像DT-RNN,DOT-RNN,有门控机制的隐层单元以及LSTM 等循环层。使用GroundHog 可以构造多种网络模型(如NMT或LM 等)。Bahdanau等人在此框架上又编写了GroundHog神经机器翻译系统。该系统被当作很多论文的基线系统,在学术界得到了广泛的认可\url{https://github.com/lisa-groundhog/GroundHog}
\item GroundHog:GroundHog\cite{bahdanau2015neural}基于Theano框架,由蒙特利尔大学LISA 实验室使用Python语言编写的一个框架,旨在提供灵活而高效的方式来实现复杂的循环神经网络模型。它提供了包括LSTM在内的多种模型。Bahdanau等人在此框架上又编写了GroundHog神经机器翻译系统。该系统被当作很多论文的基线系统\url{https://github.com/lisa-groundhog/GroundHog}
\vspace{0.5em}
\item Nematus:Nematus\cite{SennrichNematus}是英国爱丁堡大学开发的,基于Theano框架的NMT 系统,该系统使用GRU作为隐层单元,支持多层(Encoder 端和Decoder 端的层数可不相同)。Nematus编码端有正向和反向的编码方式,可以同时提取源语句子中的上下文信息。该系统的一个优点是,它可以支持输入端有多个特征的输入(例如词的词性等)。Nematus是一个功能相对完善、翻译效果好,且相对容易入手的一套系统\url{https://github.com/EdinburghNLP/nematus}
\item Nematus:Nematus\cite{SennrichNematus}是英国爱丁堡大学开发的,基于Theano框架的神经机器翻译系统。该系统使用GRU作为隐层单元,支持多层网络。Nematus 编码端有正向和反向的编码方式,可以同时提取源语句子中的上下文信息。该系统的一个优点是,它可以支持输入端有多个特征的输入(例如词的词性等)\url{https://github.com/EdinburghNLP/nematus}
\vspace{0.5em}
\item Zoph:Zoph是由Information Sciences Institute 的Barret Zoph 等人使用C++语言开发的系统。Zoph在多个GPU 上既可以训练序列模型(例如语言模型),也可以训练序列到序列的模型(例如神经机器翻译模型),且可通过参数调整网络的层数。当训练NMT系统时,Zoph也支持了多源输入,即在输入源语句子时可同时输入其一种译文。该系统由于使用C++语言,所以有运行速度快的特点\url{https://github.com/isi-nlp/Zoph\_RNN}
\item ZophRNN:ZophRNN是由南加州大学的Barret Zoph 等人使用C++语言开发的系统。Zoph在多个GPU 上既可以训练序列模型(如语言模型),也可以训练序列到序列的模型(如神经机器翻译模型)。当训练神经机器翻译系统时,Zoph也支持了多源输入,即在输入源语句子时可同时输入其一种译文。该系统由于使用C++语言,运行速度快\url{https://github.com/isi-nlp/Zoph\_RNN}
\vspace{0.5em}
\item Fairseq:Fairseq\cite{Ottfairseq}是由facebook的AI研究小组开发的,基于Torch框架的用以解决序列到序列问题的工具包,其中包括基于卷积神经网络的机器翻译模型,基于循环神经网络的机器翻译模型,以及Transformer模型等。\\ https://github.com/facebookresearch/fairseq
\item Fairseq:Fairseq\cite{Ottfairseq}是由Facebook开发的,基于PyTorch框架的用以解决序列到序列问题的工具包,其中包括基于卷积神经网络、基于循环神经网络、基于Transformer的模型等。Fairseq是当今使用最广泛的神经机器翻译开源系统之一。https://github.com/facebookresearch/fairseq
\vspace{0.5em}
\item Tensor2Tensor:Tensor2Tensor\cite{VaswaniTensor2Tensor}是由谷歌推出的,基于TensorFlow框架的Tran\\-sformer系统。该系统与之前的使用循环神经网络或卷积神经网络结构不同,而是使用self-attention机制以及最简单的前馈神经网络构成的。得益于Transformer的网络结构,可使得系统可以在多个GPU上并行运行,大大加快了训练的速度。该系统由于没有循环等复杂的运算,故训练和解码都比循环神经网络快。此外,目前该系统的翻译效果比循环神经网络结构的神经机器翻译系统更好一点\url{https://github.com/tensorflow/tensor2tensor}
\item Tensor2Tensor:Tensor2Tensor\cite{VaswaniTensor2Tensor}是由谷歌推出的,基于TensorFlow框架的开源系统。该系统基于Transformer模型,因此可以支持大多数序列到序列任务。得益于Transformer 的网络结构,系统的训练速度较快。现在,Tensor2Tensor也是机器翻译翻译领域广泛使用的开源系统之一\url{https://github.com/tensorflow/tensor2tensor}
\vspace{0.5em}
\item OpenNMT:OpenNMT\cite{KleinOpenNMT}系统是由Harvard NLP(哈佛大学自然语言处理研究组)开源的,基于Torch框架的神经机器翻译系统。OpenNMT系统的早期版本使用Lua 语言编写,现在也扩展到了TensorFlow和PyTorch,设计简单易用,易于扩展,同时保持效率和翻译精度。其接口简单通用,只需源/目标文件。可以在GPU 上快速高性能训练,且优化了内存。此外,OpenNMT可扩展到其他序列生成任务,例如文本摘要和多模态翻译等\url{https://github.com/OpenNMT/OpenNMT}
\item OpenNMT:OpenNMT\cite{KleinOpenNMT}系统是由哈佛大学自然语言处理研究组开源的,基于Torch框架的神经机器翻译系统。OpenNMT系统的早期版本使用Lua 语言编写,现在也扩展到了TensorFlow和PyTorch,设计简单易用,易于扩展,同时保持效率和翻译精度\url{https://github.com/OpenNMT/OpenNMT}
\vspace{0.5em}
\item 斯坦福NMT开源代码库:斯坦福大学自然语言处理组(Stanford NLP)发布了一片文章,总结了该研究组在神经机器翻译上的研究信息,同时他们实现了当前最佳结果的代码库。斯坦福NMT开源代码库包括了3种NMT系统\cite{luong2016achieving}\cite{luong2015effective}\cite{see2016compression},分别为基于字词混合的hybrid NMT,基于注意力机制的attenti\\-onbased NMT以及通过剪枝方式压缩模型的pruning NMT\\ \url{https://nlp.stanford.edu/projects/nmt/}
\item 斯坦福神经机器翻译开源代码库:斯坦福大学自然语言处理组(Stanford NLP)发布了一篇文章({\color{red} 文章地址?参考文献}),总结了该研究组在神经机器翻译上的研究信息,同时实现了多种翻译模型\\ \url{https://nlp.stanford.edu/projects/nmt/}
\vspace{0.5em}
\item THUMT:清华大学NLP团队实现的Transformer等模型\cite{ZhangTHUMT}、支持多GPU训练和解码、分布式训练。主要基于Tensorflow和Theano实现,其中Theano版本包含了RNNsearch模型,训练方式包括MLE(Maximum Likelihood Estimate), MRT(minimum risk training), SST(semi-supervised training)。优化器包括:SGD, Adadelta, Adam,当前Theano版本已不再更新。官方推荐使用Tensorflow版本,其实现了Seq2Seq, RNNsearch, Transformer三种基本模型,支持MLE训练方式以及Adam优化器\url{https://github.com/THUNLP-MT/THUMT}
\item THUMT:清华大学NLP团队实现的神经机器翻译系统,支持Transformer等模型\cite{ZhangTHUMT}。主要基于Tensorflow和Theano实现,其中Theano版本包含了RNNsearch 模型,训练方式包括MLE (Maximum Likelihood Estimate), MRT(minimum risk training), SST(semi-supervised training)。Tensorflow 版本实现了Seq2Seq, RNNsearch, Transformer三种基本模型\url{https://github.com/THUNLP-MT/THUMT}
\vspace{0.5em}
\item NiuTrans.NMT:由东北大学NLP团队基于NiuTensor工具集实现\cite{肖桐2011CWMT2011},支持前馈网络,循环神经网络,Transformer等结构,支持语言模型,序列标注,机器翻译等任务。支持机器翻译GPU与CPU训练及解码。其小巧易用,为NLP开发人员提供快速二次开发基础。\url{https://github.com/NiuTrans/NiuTensor}
\item NiuTrans.NMT:由小牛翻译团队基于NiuTensor工具集实现,支持循环神经网络、Transformer等结构,并支持语言建模、序列标注、机器翻译等任务。支持机器翻译GPU与CPU 训练及解码。其小巧易用,为开发人员提供快速二次开发基础。此外,NiuTrans.NMT已经得到了大规模应用,形成了支持187种语言翻译的小牛翻译系统。\url{http://niutrans.com/opensource/}
\vspace{0.5em}
\item MARIANNMT:主要由微软翻译团队搭建\cite{JunczysMarian},使用纯C++实现的用于GPU/CPU\\训练和解码的引擎,支持多GPU训练和批量解码,最小限度依赖第三方库,静态编译一次之后,复制其二进制文件就能在其他平台使用。\url{https://marian-nmt.github.io/}
\item MARIANNMT:主要由微软翻译团队搭建\cite{JunczysMarian},使用纯C++实现的用于GPU/CPU训练和解码的引擎,支持多GPU训练和批量解码,最小限度依赖第三方库,静态编译一次之后,复制其二进制文件就能在其他平台使用。\url{https://marian-nmt.github.io/}
\vspace{0.5em}
\item Sockeye:由Awslabs开发得神经机器翻译框架\cite{hieber2017sockeye}。其中支持RNN Search,Trans\\ -former,CNN等翻译模型,同时还有提供了从图片翻译到文字的模块。提供了WMT 德英新闻翻译,领域适应任务,多语言零资源翻译任务的教程。\url{https://awslabs.github.io/sockeye/}
\item Sockeye:由Awslabs开发得神经机器翻译框架\cite{hieber2017sockeye}。其中支持RNNSearch、Transformer、CNN等翻译模型,同时还有提供了从图片翻译到文字的模块。提供了WMT 德英新闻翻译、领域适应任务、多语言零资源翻译任务的教程。\url{https://awslabs.github.io/sockeye/}
\vspace{0.5em}
\item CytonMT:由NICT开发的一种用C++实现的高效神经机器翻译开源工具包\cite{WangCytonMT}。主要支持Transformer模型,支持了SGD和Adam优化器,一些常用的训练方法以及解码方法。\url{https://github.com/arthurxlw/cytonMt}
\item CytonMT:由NICT开发的一种用C++实现的高效神经机器翻译开源工具包\cite{WangCytonMT}。主要支持Transformer模型,并支持一些常用的训练方法以及解码方法。\url{https://github.com/arthurxlw/cytonMt}
\vspace{0.5em}
\item OpenSeq2Seq:由NVIDIA团队开发的\cite{KuchaievMixed}基于tensorflow的模块化架构,用于序列到序列的模型,允许从可用组件中组装新模型,支持混合精度训练,利用NVIDIA Volta / Turing GPU中的Tensor核心,基于Horovod的快速分布式训练,支持多gpu,多节点多模式。\url{https://nvidia.github.io/OpenSeq2Seq/html/index.html}
\item OpenSeq2Seq:由NVIDIA团队开发的\cite{KuchaievMixed}基于Tensorflow的模块化架构,用于序列到序列的模型,允许从可用组件中组装新模型,支持混合精度训练,利用NVIDIA Volta Turing GPU中的Tensor核心,基于Horovod的快速分布式训练,支持多GPU,多节点多模式。\url{https://nvidia.github.io/OpenSeq2Seq/html/index.html}
\vspace{0.5em}
\item Nmtpytorch:由勒芒大学语言实验室发布的基于序列到序列框架的神经网络翻译模型,Nmtpytorch的核心部分依赖于Numpy,Pytorch和tqdm。其允许训练各种端到端神经体系结构,包括但不限于神经机器翻译,图像字幕和自动语音识别系统。\url{https://github.com/lium-lst/nmtpytorch}
\vspace{0.5em}
\item DL4MT:由Cho Lab at NYU CS and CDS团队构建的多编码器、多解码器或多路NMT模型。该项目主要使用Theano 构建计算图,吸取了其他NMT系统搭建的经验,构建了调度器来管理调度多个数据流从而训练多个计算图,从而加快训练速度。同时该团队还提供了对应的学习材料,进一步讲解整个项目的细节。\url{https://github.com/nyu-dl/dl4mt-multi}
\vspace{0.5em}
\item ModerNMT:由modernmt团队搭建的基于Fairseq Tranformer模型的上下文感知、增量和分布式通用的神经机器翻译技术\cite{Germann2016Modern},易于使用和扩展。它通过将所有可用的项目/客户数据和翻译记忆库集中在一个文件夹中进行训练,通过提供要翻译的句子和可选的一些上下文文本来查询。\url{https://github.com/ModernMT/MMT}
\item NMTPyTorch:由勒芒大学语言实验室发布的基于序列到序列框架的神经网络翻译模型,Nmtpytorch的核心部分依赖于Numpy,Pytorch和tqdm。其允许训练各种端到端神经体系结构,包括但不限于神经机器翻译,图像字幕和自动语音识别系统。\url{https://github.com/lium-lst/nmtpytorch}
\end{itemize}
\vspace{0.5em}
......@@ -584,6 +580,8 @@ His house is on the south bank of the river.
\parinterval Ian Goodfellow、Yoshua Bengio,Aaron Courville三位机器学习领域的学者所写的《深度学习》\cite{HeatonIan}也是值得一读的参考书。其讲解了有关深度学习常用的方法,其中很多都会在深度学习模型设计和使用中用到。同时在《深度学习》应用一章中也简单讲解了神经机器翻译的任务定义和发展过程。
\parinterval 《Neural Network Methods for Natural Language Processing》是Yoav Goldberg编写的面向自然语言处理的深度学习参考书({\color{red} 参考文献!})。相比《深度学习》,该书聚焦在自然语言处理中的深度学习方法,内容更加易读。
\parinterval 《机器学习》\cite{周志华2018《机器学习》}由南京大学教授周志华教授所著,作为机器学习领域入门教材,该书尽可能地涵盖了机器学习基础知识的各个方面,试图尽可能少地使用数学知识介绍机器学习方法与思想。在机器翻译中使用的很多机器学习概念和方法可以从该书中进行学习。
\parinterval TensorFlow官网提供了一个有关神经机器翻译的教程,介绍了从数据处理开始如何利用TensorFlow工具从零搭建一个神经机器翻译系统以及如何解码,其地址为\url{https://www.tensorflow.org/tutorials/text/nmt\_with\_attention}。此外谷歌和Facebook也分别提供了基于序列到序列机器翻译模型的高级教程。谷歌的版本是基于TensorFlow实现,网址为:\url{https://github.com/tensorflow/nmt},Facebook的教程主要是基于PyTorch实现--\url{https://pytorch.org/tutorials/intermediate/seq2seq\_translation\_tutorial.html}。网站上也包含一些综述论文详细的介绍了神经机器翻译的发展历程,问题定义以及目前遇到的问题。
......@@ -598,7 +596,11 @@ His house is on the south bank of the river.
\vspace{0.5em}
\item EMNLP,全称Conference on Empirical Methods in Natural Language Processing ,自然语言处理另一个顶级会议之一,由ACL当中对语言数据和经验方法有特殊兴趣的团体主办,始于1996年。会议比较偏重于方法和经验性结果。
\vspace{0.5em}
\item COLING,全称Int'l Committee on Computational Linguistics (ICCL) Conf.,自然语言处理老牌顶级会议之一。该会议始于1965年,是由ICCL国际计算语言学委员会主办,自从第三届会议在斯德哥尔摩举办之后,会议简称为COLING,是谐音瑞典著名作家 Albert Engstr$\ddot{\textrm{o}}$m小说中的虚构人物Kolingen。COLING每两年举办一次。
\item COLING,全称International Committee on Computational Linguistics,自然语言处理老牌顶级会议之一。该会议始于1965年,是由ICCL国际计算语言学委员会主办,自从第三届会议在斯德哥尔摩举办之后,会议简称为COLING,是谐音瑞典著名作家 Albert Engstr$\ddot{\textrm{o}}$m小说中的虚构人物Kolingen。COLING每两年举办一次。
\vspace{0.5em}
\item EACL,全称European Chapter of the Association for Computational Linguistics,为ACL欧洲分会,虽然在欧洲召开,会议也吸引了全世界的大量学者投稿并参会。
\vspace{0.5em}
\item AACL,全称Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics,为ACL亚太地区分会。2020年会议首次召开,是亚洲地区自然语言处理领域最具影响力的会议之一。
\vspace{0.5em}
\item WMT,全称Conference on Machine Translation。机器翻译领域一年一度研讨会,是国际公认的顶级机器翻译赛事之一。
\vspace{0.5em}
......@@ -606,7 +608,7 @@ His house is on the south bank of the river.
\vspace{0.5em}
\item CCL,全称Conference on Computational Linguistics,中文为中国计算语言学大会。中国计算语言学大会创办于1991年,由中国中文信息学会计算语言学专业委员会负责组织。经过20余年的发展,中国计算语言学大会已成为国内自然语言处理领域权威性最高、规模和影响最大的学术会议。作为中国中文信息学会(国内一级学会)的旗舰会议,CCL聚焦于中国境内各类语言的智能计算和信息处理,为研讨和传播计算语言学最新学术和技术成果提供了最广泛的高层次交流平台。
\vspace{0.5em}
\item NLPCC,全名The CCF International Conference on Natural Language Processing and Chinese Computing。NLPCC 是由中国计算机学会(CCF)主办的 CCF 中文信息技术专业委员会年度学术会议,同时也是CCF推荐C类会议,专注于自然语言处理及中文计算领域的学术和应用创新。会议自 2012 年开始举办,主要活动有主题演讲、论文报告、技术测评、专家论坛、技术展示
\item NLPCC,全名The CCF International Conference on Natural Language Processing and Chinese Computing。NLPCC 是由中国计算机学会(CCF)主办的 CCF 中文信息技术专业委员会年度学术会议,同时也是CCF推荐C类会议,专注于自然语言处理及中文计算领域的学术和应用创新。会议自 2012 年开始举办,主要活动有主题演讲、论文报告、技术测评等多种形式
\vspace{0.5em}
\item CCMT,全名The China Conference on Machine Translation,中国机器翻译研讨会,由中国中文信息学会主办,旨在为国内外机器翻译界同行提供一个平台,加强国内外同行的学术交流,促进中国机器翻译事业。CCMT不仅是国内机器翻译领域最具影响力、最权威的学术和评测活动,而且也代表着汉语与民族语言翻译技术的最高水准,对民族语言技术发展具有重要意义。
\vspace{0.5em}
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论