收录了 GPT-2 频道下的 50 篇内容
OpenAI在官博介绍了一个大规模无监督NLP模型:GPT 2.0,被称为“史上最强通用NLP模型”。今天这篇文章,来自新浪微博AI Lab的算法专家张俊林将谈一谈自己对GPT 2.0的一些想法。
吴恩达曾说:迁移学习将会是继监督学习之后下一个机器学习商业成功的驱动力。
如何使用GPT-2制作自定义AI生成的文本。
单个八 H100节点+24小时+672美元+llm.c=成功重现GPT-2(1.6B)
我们的主要目标是构建一套能够快速交付OpenAI GPT-2 Medium(一套用于生成文本的机器学习模型),并同时支持10到20款面向重度用户的应用程序。
GPT-2 和GPT-3 哪个好,应该选哪个 Transformer ?
整理 | 华卫基准测试网站的神秘模型,在大模型领域掀起了巨大波澜。gpt2-chatbot。没有出处,也没有介绍,在没有官方文件的情况下,一夜间“惊艳”所有人的视线。
给GPT-3泼点儿冷水。
创始人退出,新模型被骂,OpenAI到底犯了什么错?
就在刚刚,OpenAI 官宣了 Altman 口中的“就像魔法一样”的东西。
这篇文章主要目的是为了让大家能够清楚如何用MindSpore2.0来进行模型的迁移。
大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解 |社区征文
AI一周资讯甄选全球最新行业动态,着眼影响技术变革的大事件,聚焦业内专家学者的发声,为读者呈现出内容丰富且有价值的新闻资讯。
本文以QA形式总结对比了nlp中的预训练语言模型。
“AI 一周资讯”栏目甄选全球最新行业动态,着眼影响技术变革的大事件,聚焦业内专家学者的发声,为读者呈现出内容丰富且有价值的新闻资讯。
日前,Github 上有一个非常不错的 NLP 工具发布了:PyTorch-Transformers。该项目支持 BERT、GPT、GPT-2、Transformer-XL、XLNet、XLM等,并包含了 27 个预训练模型。
OpenRL 是由第四范式强化学习团队开发的基于 PyTorch 的强化学习研究框架,支持单智能体、多智能体、自然语言等多种任务的训练。OpenRL 基于 PyTorch 进行开发,目标是为强化学习研究社区提供一个简单易用、灵活高效、可持续扩展的平台。
徒手用 1000 行 C 语言实现,不依赖庞大的外部库,Mac 即可运行。
我们在实际NLP应用场景下对比了ChatGPT和自研技术的效果。
我们要尊重算力,但不要唯算力