写点什么
腾讯AI领域系列优秀论文解读

腾讯AI领域系列优秀论文解读

策划: 赵钰莹

过去一年,腾讯AI Lab实验室在人机语音交互、语音合成、端到端语音识别、图深度学习、非自回归机器翻译等领域取得了重要进展,并将相关内容以论文的形式发表在各大会议上。本专题,InfoQ联合腾讯AI Lab实验室对部分优秀论文做了详细解读,以期对广大开发者有所帮助。

基于神经网络的多音区语音唤醒 | 论文解读
基于神经网络的多音区语音唤醒 | 论文解读

唤醒技术落地的难点是要求在低功耗下达到高性能要求。

基于RNN Transducer端到端语音识别的最小贝叶斯风险训练 | 论文解读
基于 RNN Transducer 端到端语音识别的最小贝叶斯风险训练 | 论文解读

端到端语音识别技术将语音识别系统中的各个组件整合至同一个神经网络框架中,与传统语音识别系统相比具有建模简洁,赋能组件之间联合优化以及系统占用空间小等优点,近几年逐渐成为语音识别领域里最重要的研究方向之一。

DurIAN: 基于时序注意力神经网络的语音合成系统 | 论文解读
DurIAN: 基于时序注意力神经网络的语音合成系统 | 论文解读

作为人机语音交互的出口,语音合成的效果直接影响到人机交互到体验,一个高质量的、稳定的语音合成系统能够让机器更加地拟人化,使人机交互过程更加自然。

从理解到改进:非自回归翻译中的词汇选择 | 论文解读
从理解到改进:非自回归翻译中的词汇选择 | 论文解读

为了打破解码速度的瓶颈,非自回归神经机器翻译系统 (NAT) 于 2018 年被提出。其摆脱了自回归分解的约束,并行地生成所有目标词,这使得解码速度得到了极大提升,从 NAT 快速解码得到的收益可以允许在工业界的特定延迟和预算下部署更大更深的 Transformer 模型。

没有更多了
腾讯AI领域系列优秀论文解读_技术洞察_技术趋势_大厂实践_InfoQ精选专题