gpt

XLnet:GPT和BERT的合体,博采众长,所以更强
XLnet:GPT 和 BERT 的合体,博采众长,所以更强

本文介绍BERT的改进版,XLnet,看看它用了什么方法,改进了BERT的哪些弱点。

NLP文本分类缺少训练数据?IBM提出基于语言模型的数据增强新方法
NLP 文本分类缺少训练数据?IBM 提出基于语言模型的数据增强新方法

怎样才能拥有足够多且可供深度学习模型训练用的数据呢?

让你的AI绿起来,艾伦研究所提出深度学习效率评估标准Green AI
让你的 AI 绿起来,艾伦研究所提出深度学习效率评估标准 Green AI

培养一个靠谱的AI需要消耗大量的算力。随着摩尔定律的终结,AI的计算成本正在疯长,几乎每隔几个月计算基线...

搞懂NLP中的词向量,看这一篇就足够
搞懂 NLP 中的词向量,看这一篇就足够

本文以QA形式对自然语言处理中的词向量进行总结:包含Word2vec/GloVe/FastText/ELMo/GPT/BERT。

Transformer在推荐模型中的应用总结
Transformer 在推荐模型中的应用总结

最近基于transformer的一些NLP模型很火(比如BERT,GPT-2等)

最强NLP预训练模型库PyTorch-Transformers正式开源:支持6个预训练框架,27个预训练模型
最强 NLP 预训练模型库 PyTorch-Transformers 正式开源:支持 6 个预训练框架,27 个预训练模型

该项目支持 BERT、GPTGPT-2、Transformer-XL、XLNet、XLM等,并包含了 27 个预训练模型。