gpt

文本表示与文本生成模型新进展与应用
文本表示与文本生成模型新进展与应用

本次分享介绍文本表示和文本生成方面的近一年重要进展。

作者: 李磊

2019 年 9 月 17 日
探索NLP中的Attention注意力机制及Transformer详解
探索 NLP 中的 Attention 注意力机制及 Transformer 详解

本文以QA形式对自然语言处理中注意力机制(Attention)进行总结,并对Transformer进行深入解析。

作者: JayLou 策划: 陈思

2019 年 8 月 30 日
OpenAI CTO自述:我是如何成为一名机器学习从业者的?
OpenAI CTO 自述:我是如何成为一名机器学习从业者的?

学习新技术并不是最难的,最大的障碍是思想上的障碍——重新让自己成为一个初学者。

作者: Greg Brockman 译者: 小大非 策划: 蔡芳芳

2019 年 8 月 27 日
一文了解自然语言生成演变史!
一文了解自然语言生成演变史!

自然语言生成(Natural Language Generation,NLG)是自然语言处理的一部分,从知识库或逻辑形式等等机器...

作者: Abhishek Sunnak 等

2019 年 5 月 3 日
科大讯飞刷新SQuAD 2.0问答榜纪录,机器阅读理解全面超越人类
科大讯飞刷新 SQuAD 2.0 问答榜纪录,机器阅读理解全面超越人类

近日,科大讯飞再次登上 SQuAD 2.0 挑战赛榜首,不过这次顺带刷新了一下纪录:在EM(精准匹配率)和F1...

作者: Debra蔡芳芳

2019 年 3 月 28 日
理解BERT Transformer:Attention is not all you need!
理解 BERT Transformer:Attention is not all you need!

在这篇文章中,作者提出了一些新的见解和假设,来解释BERT强大能力的来源。

作者: Damien Sileo 译者: 马卓奇

2019 年 4 月 5 日