收录了 语言模型 频道下的 50 篇内容

本文以QA形式总结对比了nlp中的预训练语言模型。

本文围绕大语言模型的涌现相关现象介绍、可能的解释,以及目前关于此的一些争论。

本次演讲将介绍字节跳动视觉基础研究团队在这个方向的探索与进展,包括 LLMs 在图像理解与视频生成上的阶段性结果。

字节跳动 SRE-Copliot 框架的优势、架构及技术细节。

本文来自微信京东数科技术说公众号。

OpenAI在官博介绍了一个大规模无监督NLP模型:GPT 2.0,被称为“史上最强通用NLP模型”。今天这篇文章,来自新浪微博AI Lab的算法专家张俊林将谈一谈自己对GPT 2.0的一些想法。

如何使用LangChain4j库提供的用来构建大语言模型应用的构建基块。

预训练语言模型这一年:“百花”齐放,大厂竞赛持续,超越BERT不止步

国内外大语言模型的产品能力差异真的很大吗?好像并不是...

刚刚在最权威的中文语言模型榜单 CLUE 上拿到了分类领域第一。

在使用这项技术之前,退后几步,想想可能发生的最坏情况。

微软推出了一种名为Guidance的领域专属语言,旨在增强开发人员管理当代语言模型的能力。

文章介绍了针对大型语言模型(LLM)的提示注入和提示窃取攻击方式。前者如欺骗汽车经销商机器人达成不合理交易,后者是获取系统提示。攻击 LLM 的原因包括访问业务数据等。防范手段有在提示中加指令、使用对抗性提示检测器和微调模型,但目前没有完全阻止攻击的可靠方案。

在 AICon 北京 2019 大会上,魏俊秋讲师做了《华为预训练语言模型技术与行业应用》主题演讲。

人工智能的迅速发展正在改变着我们的世界,对于大数据企业来说更是如此。

,在自然语言生成任务上带来了惊人表现,自此,预训练语言模型开始得到学术界和工业界的极大关注,被认为是开启了自然语言处理的新篇章。

该模型在硬件和软件层面均由突破性成果进行训练

OpenAI 最强预训练语言模型 GPT-3 具有 1750 亿个参数,MT-NLG 参数量是前者的 3 倍。

GPT-3来了,它是否仍然强大?

与最先进Transformer模型相比,推理速度能提高300-1800倍