收录了 GPT-2 频道下的 50 篇内容
OpenAI在官博介绍了一个大规模无监督NLP模型:GPT 2.0,被称为“史上最强通用NLP模型”。今天这篇文章,来自新浪微博AI Lab的算法专家张俊林将谈一谈自己对GPT 2.0的一些想法。
吴恩达曾说:迁移学习将会是继监督学习之后下一个机器学习商业成功的驱动力。
如何使用GPT-2制作自定义AI生成的文本。
我们的主要目标是构建一套能够快速交付OpenAI GPT-2 Medium(一套用于生成文本的机器学习模型),并同时支持10到20款面向重度用户的应用程序。
GPT-2 和GPT-3 哪个好,应该选哪个 Transformer ?
给GPT-3泼点儿冷水。
创始人退出,新模型被骂,OpenAI到底犯了什么错?
这篇文章主要目的是为了让大家能够清楚如何用MindSpore2.0来进行模型的迁移。
大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解 |社区征文
AI一周资讯甄选全球最新行业动态,着眼影响技术变革的大事件,聚焦业内专家学者的发声,为读者呈现出内容丰富且有价值的新闻资讯。
本文以QA形式总结对比了nlp中的预训练语言模型。
“AI 一周资讯”栏目甄选全球最新行业动态,着眼影响技术变革的大事件,聚焦业内专家学者的发声,为读者呈现出内容丰富且有价值的新闻资讯。
日前,Github 上有一个非常不错的 NLP 工具发布了:PyTorch-Transformers。该项目支持 BERT、GPT、GPT-2、Transformer-XL、XLNet、XLM等,并包含了 27 个预训练模型。
OpenRL 是由第四范式强化学习团队开发的基于 PyTorch 的强化学习研究框架,支持单智能体、多智能体、自然语言等多种任务的训练。OpenRL 基于 PyTorch 进行开发,目标是为强化学习研究社区提供一个简单易用、灵活高效、可持续扩展的平台。
徒手用 1000 行 C 语言实现,不依赖庞大的外部库,Mac 即可运行。
我们在实际NLP应用场景下对比了ChatGPT和自研技术的效果。
我们要尊重算力,但不要唯算力
OpenAI表示:目前暂没有直接证据表明GPT-2遭到滥用。
5月3日,OpenAI在官方推特上宣布:将通过两种机制对GPT-2模型进行开放——分阶段开放以及和合作伙伴共享。作为第一阶段的尝试,OpenAI将对外开放345M的模型,并与合作伙伴共享1.5B模型(需申请)。
一文手把手教你如何基于 TensorFlow 2.0,仅用十行代码即可实现性能最佳的自然语言处理模型。