写点什么

Bert

收录了 Bert 频道下的 50 篇内容

美团BERT的探索和实践
美团 BERT 的探索和实践

本文介绍美团点评业务场景的MT-BERT模型。

谷歌最强NLP预训练模型BERT正式开源
谷歌最强 NLP 预训练模型 BERT 正式开源

近日,谷歌AI的一篇NLP论文引起了社区极大的关注与讨论,被认为是NLP领域的极大突破。该论文介绍了一种新的语言表征模型BERT——来自Transformer的双向编码器表征。

五问BERT:深入理解NLP领域爆红的预训练模型
五问 BERT:深入理解 NLP 领域爆红的预训练模型

本文由浅入深,通过理论与案例多角度介绍了BERT的理论与使用方法。

BERT不是“银弹”,它做不到什么?
BERT 不是“银弹”,它做不到什么?

强大的BERT也有做得不到的事情。

基于BERT的ASR纠错
基于 BERT 的 ASR 纠错

本文介绍小爱算法团队基于近年来流行的BERT预训练模型在这个问题上所进行的一些技术探索,以及在业务场景中的落地情况。

深度解析:如何最大化BERT性能
深度解析:如何最大化 BERT 性能

本文阐述了一种评估预训练 BERT 模型以提高性能的方法。

BERT在美团搜索核心排序的探索和实践
BERT 在美团搜索核心排序的探索和实践

本文介绍BERT在美团搜索核心排序的探索和实践。

如何使用BERT进行自然语言处理?
如何使用 BERT 进行自然语言处理?

在本文中,我们将转向自然语言处理,并探索一些我们可以用机器学习来解决的问题。

干货 | BERT fine-tune 终极实践教程
干货 | BERT fine-tune 终极实践教程

奇点机智技术团队将结合利用BERT在AI-Challenger机器阅读理解赛道的实践表现以及多年的NLP经验积累,为大家奉上BERT在中文数据集上的fine tune全攻略。

微软提出新预训练语言模型DeBERTa:仅需一半数据且效果优于BERT、RoBERTa
微软提出新预训练语言模型 DeBERTa:仅需一半数据且效果优于 BERT、RoBERTa

本文提出了一种新的基于 Transformer 的神经语言模型 DeBERTa,它被证明比 RoBERTa 和 BERT 作为 PLM 更有效,在一系列 NLP 任务中取得了更好的效果。

对 PyTorch BERT 模型进行微调,并将其部署到 Amazon SageMaker 上的 Amazon Elastic Inference
对 PyTorch BERT 模型进行微调,并将其部署到 Amazon SageMaker 上的 Amazon Elastic Inference

本文将介绍如何使用Amazon SageMaker对PyTorch BERT模型进行微调,并将其部署在应用了Elastic Inference的SageMaker终端节点上。

如何利用TensorFlow Hub 让BERT开发更简单?
如何利用 TensorFlow Hub 让 BERT 开发更简单?

开发者可在 TensorFlow Hub 上使用预训练编码器和匹配的文本预处理模型。

MT-BERT在文本检索任务中的实践
MT-BERT 在文本检索任务中的实践

本文系DR-BERT算法在文本检索任务中的实践分享,希望对从事检索、排序相关研究的同学能够有所启发和帮助。

谷歌提出任务无关的轻量级预训练模型MobileBERT:比BERT小4倍、速度快5倍
谷歌提出任务无关的轻量级预训练模型 MobileBERT:比 BERT 小 4 倍、速度快 5 倍

目前还没有任何工作能构建出一个与任务无关的轻量级预训练模型,谷歌大脑研发人员提出了MobileBERT来填补这一空白。

BERT能否被“平替”?作业帮文本分类场景下的一次尝试
BERT 能否被“平替”?作业帮文本分类场景下的一次尝试

在有些生产环境中,BERT 庞大的参数量不仅在推理时占用过多的计算资源,也不利于后续模型的扩展迭代。

理解BERT Transformer:Attention is not all you need!
理解 BERT Transformer:Attention is not all you need!

在这篇文章中,作者提出了一些新的见解和假设,来解释BERT强大能力的来源。

深度迁移学习在NLP中的应用:选BERT还是被评逆天的GPT 2.0?
深度迁移学习在 NLP 中的应用:选 BERT 还是被评逆天的 GPT 2.0?

吴恩达曾说:迁移学习将会是继监督学习之后下一个机器学习商业成功的驱动力。

Bert Ertman 专访:将 Spring 及遗留应用迁移到 Java EE 6 平台

本文来自于2013上海JavaOne大会上对Luminis公司Bert Ertman的专访。在这篇访谈中,Bert谈到了从Spring及遗留应用迁移到Java EE 6平台的重要性与必要性。他详细剖析了Java EE 6平台的诸多新特性、Spring应用可能存在的问题、应用迁移的场景与方式、如何通过Java EE 6的新特性来实现Spring框架的相应功能、如何根据实际的业务场景说服公司高层进行应用迁移、如何通过Java EE 6平台进行单元测试与集成测试等等。最后,Bert又谈到了微部署的优势与价值以及Web MVC前移的发展趋势。本文对于从事Java企业开发、Java应用服务器开发、Spring应用开发的开发者、项目经理及架构师来说颇具价值,同时也详尽比对了Spring与Java EE 6平台的众多特性。

BERT能否被“平替”? — 作业帮文本分类场景下的一次尝试
BERT 能否被“平替”? — 作业帮文本分类场景下的一次尝试

近年来,在众多自然语言处理模型中最具有代表性的就是BERT,它以优异的性能赢得了广大算法工程师的青睐。

更小、更快、更便宜、更轻量:开源DistilBERT,BERT的精简版本
更小、更快、更便宜、更轻量:开源 DistilBERT,BERT 的精简版本

知识蒸馏(有时也称为师生学习)是一种压缩技术,要求对小型模型进行训练,以使其拥有类似于大型模型(或者模型集合)的行为特征。

Bert专题_资料-InfoQ中文网