Facebook 转向神经网络机器翻译(NMT)

  • Alex Giamas
  • Rays

2017 年 8 月 21 日

话题:Facebook语言 & 开发架构AI

Facebook近期宣布面向全球推出NMT(神经网络机器翻译,Neural Machine Translation)。从基于短语的翻译模型转向 NMT,使得 Facebook 可以支持超过两千种的语言互译,并达到了每天 45 亿次的翻译量。据 Facebook 介绍,NMT 使得BLUE 分值增加了 11%。BLEU是一种广为使用的翻译评分机制。

撰写该博文的工程师 Juan Miguel Pino、Alexander Sidorov 和 Necip Fazil Ayan 使用Caffe2实现了 2.5 倍的性能提升。Caffe2 是 Facebook 于今年早期开源的一个机器学习框架。

NMT 实现如此质量翻译的关键,在于它使用的 RNN(Recurrent Neural Network)是一种具有注意机制(Attention)的 Seq2Seq(Sequence-to-Sequence) LSTM(long short-term memory)。这样的系统充分考虑到了原始语句的上下文以及该语句之前的全部内容,用于生成更为准确的翻译内容。这使得在翻译中可以使用长距离调序规则(Long-distance Reordering),解决了一些存在于英语 - 土耳其语和英语 - 希腊语等语言互译中的问题。

LSTM 的注意机制(Attention)在处理翻译中未知词汇上非常有用,它将翻译软对齐到由训练数据构建的双语语料库,并使用了削减词汇量(Vocabulary reduction)方法,在避免对翻译质量产生显著影响的情况下,有效地降低了计算时间。

FB Learner Flow框架用于快速并准确地调优每一种语言互译所使用的参数。3.7% 的英语 - 西班牙语互译 BLEU 分值增加来自于该框架的贡献。

作为项目的一部分,Facebook 将 RNN 贡献到Caffe2项目中,并作了开源。同时,Facebook 的 FAIR(Facebook’s Artificial Intelligence Research)研究团队已经公开发表了他们在机器翻译中使用CNN(convolutional neural networks)的方法。

Google 在 2016 年就发布了用于 Google 翻译的 NMT,先于 Facebook 此次发布达多个月。而在一个月前,Google 宣布了Multimodel 神经网络模型这一突破性进展

查看英文原文: Facebook Transitioning to Neural Machine Translation

Facebook语言 & 开发架构AI