收录了 语言模型 频道下的 50 篇内容
本文以QA形式总结对比了nlp中的预训练语言模型。
本文围绕大语言模型的涌现相关现象介绍、可能的解释,以及目前关于此的一些争论。
本次演讲将介绍字节跳动视觉基础研究团队在这个方向的探索与进展,包括 LLMs 在图像理解与视频生成上的阶段性结果。
字节跳动 SRE-Copliot 框架的优势、架构及技术细节。
本文来自微信京东数科技术说公众号。
OpenAI在官博介绍了一个大规模无监督NLP模型:GPT 2.0,被称为“史上最强通用NLP模型”。今天这篇文章,来自新浪微博AI Lab的算法专家张俊林将谈一谈自己对GPT 2.0的一些想法。
预训练语言模型这一年:“百花”齐放,大厂竞赛持续,超越BERT不止步
国内外大语言模型的产品能力差异真的很大吗?好像并不是...
刚刚在最权威的中文语言模型榜单 CLUE 上拿到了分类领域第一。
在使用这项技术之前,退后几步,想想可能发生的最坏情况。
微软推出了一种名为Guidance的领域专属语言,旨在增强开发人员管理当代语言模型的能力。
在 AICon 北京 2019 大会上,魏俊秋讲师做了《华为预训练语言模型技术与行业应用》主题演讲。
人工智能的迅速发展正在改变着我们的世界,对于大数据企业来说更是如此。
,在自然语言生成任务上带来了惊人表现,自此,预训练语言模型开始得到学术界和工业界的极大关注,被认为是开启了自然语言处理的新篇章。
该模型在硬件和软件层面均由突破性成果进行训练
OpenAI 最强预训练语言模型 GPT-3 具有 1750 亿个参数,MT-NLG 参数量是前者的 3 倍。
GPT-3来了,它是否仍然强大?
与最先进Transformer模型相比,推理速度能提高300-1800倍
OpenAI曝光了两个重磅消息:一是提出了一种全新的代表当前最高水平的语言模型;二是终结了其与开源社区的爱情。
本文提出了一种新的基于 Transformer 的神经语言模型 DeBERTa,它被证明比 RoBERTa 和 BERT 作为 PLM 更有效,在一系列 NLP 任务中取得了更好的效果。