收录了 Bert 频道下的 50 篇内容
本文介绍美团点评业务场景的MT-BERT模型。
近日,谷歌AI的一篇NLP论文引起了社区极大的关注与讨论,被认为是NLP领域的极大突破。该论文介绍了一种新的语言表征模型BERT——来自Transformer的双向编码器表征。
本文由浅入深,通过理论与案例多角度介绍了BERT的理论与使用方法。
强大的BERT也有做得不到的事情。
本文介绍小爱算法团队基于近年来流行的BERT预训练模型在这个问题上所进行的一些技术探索,以及在业务场景中的落地情况。
本文阐述了一种评估预训练 BERT 模型以提高性能的方法。
本文介绍BERT在美团搜索核心排序的探索和实践。
在本文中,我们将转向自然语言处理,并探索一些我们可以用机器学习来解决的问题。
奇点机智技术团队将结合利用BERT在AI-Challenger机器阅读理解赛道的实践表现以及多年的NLP经验积累,为大家奉上BERT在中文数据集上的fine tune全攻略。
本文提出了一种新的基于 Transformer 的神经语言模型 DeBERTa,它被证明比 RoBERTa 和 BERT 作为 PLM 更有效,在一系列 NLP 任务中取得了更好的效果。
本文将介绍如何使用Amazon SageMaker对PyTorch BERT模型进行微调,并将其部署在应用了Elastic Inference的SageMaker终端节点上。
开发者可在 TensorFlow Hub 上使用预训练编码器和匹配的文本预处理模型。
本文系DR-BERT算法在文本检索任务中的实践分享,希望对从事检索、排序相关研究的同学能够有所启发和帮助。
目前还没有任何工作能构建出一个与任务无关的轻量级预训练模型,谷歌大脑研发人员提出了MobileBERT来填补这一空白。
在有些生产环境中,BERT 庞大的参数量不仅在推理时占用过多的计算资源,也不利于后续模型的扩展迭代。
在这篇文章中,作者提出了一些新的见解和假设,来解释BERT强大能力的来源。
吴恩达曾说:迁移学习将会是继监督学习之后下一个机器学习商业成功的驱动力。
本文来自于2013上海JavaOne大会上对Luminis公司Bert Ertman的专访。在这篇访谈中,Bert谈到了从Spring及遗留应用迁移到Java EE 6平台的重要性与必要性。他详细剖析了Java EE 6平台的诸多新特性、Spring应用可能存在的问题、应用迁移的场景与方式、如何通过Java EE 6的新特性来实现Spring框架的相应功能、如何根据实际的业务场景说服公司高层进行应用迁移、如何通过Java EE 6平台进行单元测试与集成测试等等。最后,Bert又谈到了微部署的优势与价值以及Web MVC前移的发展趋势。本文对于从事Java企业开发、Java应用服务器开发、Spring应用开发的开发者、项目经理及架构师来说颇具价值,同时也详尽比对了Spring与Java EE 6平台的众多特性。
近年来,在众多自然语言处理模型中最具有代表性的就是BERT,它以优异的性能赢得了广大算法工程师的青睐。
知识蒸馏(有时也称为师生学习)是一种压缩技术,要求对小型模型进行训练,以使其拥有类似于大型模型(或者模型集合)的行为特征。