写点什么

如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?

  • 2019-11-09
  • 本文字数:0 字

    阅读完需:约 1 分钟

如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?

TensorFlow 在自然语言处理中占有重要的一席之地。Transformer 是由 Google 在 Attention Is All You Need 这篇论文中提出,其后可谓红遍大江南北,到目前为止仿佛有种“此生不识 Transformer,就称英雄也枉然”的感觉。本文讲述了如何基于 TensorFlow 2.0 实现最佳性能的自然语言处理模型,而且仅仅只需十行代码即可实现。


Hugging Face 是领先的自然语言处理初创公司,包括 Bing、Apple、Monzo 在内,有一千多家公司在生产环境中使用他们的库。本文中使用的所有示例,都可以在 Colab 上找到。这些链接可以在相应部分中找到。

介绍

Hugging Face 是一家专注于自然语言处理的初创公司,它拥有一个大型开源社区,尤其是 Transformers 库相关。🤗 Transformer 是一个基于 Python 的库,它公开了 API 来使用许多知名的 Transformer 架构,例如 BERTRoBERTaGPT-2DistilBERT 等,这些架构在各种自然语言处理任务(如文本分类、信息提取、问题回答和文本生成等)上获得最先进的结果。这些架构都已经经过几组权重的预训练。要开始使用 Transformer,只需安装 Pip 包:


pip install transformers
复制代码


该库在 PyTorch 中实现了超高速的增长,最近被移植到 TensorFlow 2.0 上,提供了一个 API,这个 API 现在可以与 Keras 的 fit API、TensorFlow Extended 和 TPU 一起使用 👏。本文专门介绍如何使用 TensorFlow 来使用 Transformer 库:使用 Keras API 和 TensorFlow TPUStrategy 来对最先进的 Transformer 模型进行微调。

库及其哲学

Transformer 是基于预训练的 Transformer 模型的概念。这些 Transformer 模型具有不同的形状、大小和架构,并且有自己接收输入数据的方式:通过标记化(tokenization)。


这个库基于三个主要类:配置类、词法分析类和模型类。


  • 配置类: 配置类包含于我们将要使用的模型相关的信息,例如层的数量和注意力头(attention head)的数量。下面是 BERT 配置文件的一个示例代码,用于预训练的权重 pre-base-cased。配置类通过各种 I/O 方法和标准化名称属性来托管这些属性。


{  "attention_probs_dropout_prob": 0.1,  "hidden_act": "gelu",  "hidden_dropout_prob": 0.1,  "hidden_size": 768,  "initializer_range": 0.02,  "intermediate_size": 3072,  "max_position_embeddings": 512,  "num_attention_heads": 12,  "num_hidden_layers": 12,  "type_vocab_size": 2,  "vocab_size": 28996}
复制代码


bert-base-cased 配置文件作为 JSON。


  • 词法分析类: 词法分析(Tokenzer)类负责将 Python 字符串或整数张量,这些是模型词汇表中的索引。它有许多方便的特性,可以将字符串标记化为标记。这种标记化因模型而异,因此每个模型都有自己的词法分析器。


AI 前线注: 词法分析(英语:tokenizer,lexical analysis)是计算机科学中将字符串行转换为标记(token)串行的过程。进行词法分析的进程或者函数叫作词法分析器(lexical analyzer,简称 lexer),也叫扫描器(scanner)。词法分析器一般以函数的形式存在,供语法分析器调用。


  • 模型类: 模型类拥有神经网络建模逻辑本身。当使用 TensorFlow 模型时,它继承了 tf.keras.layers.Layer,这意味着它可以非常简单地使用 Keras 的 fit API,或者使用自定义的训练循环和 GradientTape 对其进行训练。

快乐而简单

使用 Transformer 的优势在于,模型无关的 API 的直接使用。加载预训练的模型及其词法分析器可以在几行代码中完成。以下是加载 BERT 和 GPT-2 TensorFlow 模型及其词法分析器的示例代码:


from transformers import (TFBertModel, BertTokenizer,                         TFGPT2Model, GPT2Tokenizer)
bert_model = TFBertModel.from_pretrained("bert-base-cased") # Automatically loads the configbert_tokenizer = BertTokenizer.from_pretrained("bert-base-cased")
gpt2_model = TFGPT2Model.from_pretrained("gpt2") # Automatically loads the configgpt2_tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
复制代码


加载架构与模型无关。


权重是从 Hugging Faces 的 S3 桶中下载的,并缓存在你的机器上。这些模型可用于推理,或者根据需要时进行调整。让我们来看看实际效果。

微调 Transformer 模型

由于 Transformer 库中提供了一些方法,模型的微调因此变得很轻松。接下来的部分就是这样构建的:


  • 加载文本数据并对其进行预处理。

  • 定义超参数。

  • 训练(使用 CPU/GPU 上的 Keras 和 TPUStrategy)

构建输入管道

为了让你能够快速跟踪所有的代码,我们已经做了一个随附的 Colab 笔记本。我们将利用 tensorflow_datasets 包进行数据加载。Tensorflow-dataset 为我们提供了一个 tf.data.Dataset,可以将其提供给 glue_convert_examples_to_features 方法


这个方法将使用词法分析器对输入进行标记化,如果模型需要这样的附加标记的话,就在序列开头和结尾添加特殊标记(例如,[SEP]、[CLS]、</s> 或 <s>)。这个方法返回一个 tf.data.Dataset ,其中包含了特征化输入。


import tensorflow_datasetsfrom transformers import glue_convert_examples_to_features
data = tensorflow_datasets.load("glue/mrpc")
train_dataset = data["train"]validation_dataset = data["validation"]
train_dataset = glue_convert_examples_to_features(train_dataset, bert_tokenizer, 128, 'mrpc')validation_dataset = glue_convert_examples_to_features(validation_dataset, bert_tokenizer, 128, 'mrpc')train_dataset = train_dataset.shuffle(100).batch(32).repeat(2)validation_dataset = validation_dataset.batch(64)
复制代码


为模型构建输入管道。

使用 Keras 的 fit 方法进行训练

使用 Keras 的 fit 方法来训练模型从未如此简单。现在已经设置了输入管道,可以定义超参数,并使用数据集调用 Keras 的 fit 方法。


optimizer = tf.keras.optimizers.Adam(learning_rate=3e-5, epsilon=1e-08, clipnorm=1.0)loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)metric = tf.keras.metrics.SparseCategoricalAccuracy('accuracy')bert_model.compile(optimizer=optimizer, loss=loss, metrics=[metric])
bert_history = bert_model.fit( bert_train_dataset, epochs=2, steps_per_epoch=115, validation_data=bert_validation_dataset, validation_steps=7)
复制代码


使用 Keras 的 fit 方法进行训练

使用 Strategy 进行训练

使用 Stragegy 进行训练,可以让你更好地控制训练过程中发生的事情。通过 Strategy 之间的切换,用户可以选择模型的分布式训练方式:从多 GPU 到 TPU。


截止撰写本文时,TPUStrategy 是使用 TensorFlow 2 在 TPU 上训练模型唯一可靠的方法。在这方面,使用 Strategy 构建自定义循环更有意义,因为 Strategy 可以很容易地转换,并且在多 GPU 上进行训练实际上几乎不需要更改代码。


构建自定义循环需要进行一些设置工作,因此建议读者打开下面的 Colab 笔记本,以便更好地掌握手头中的主题。这个笔记本没有像上面第一个 Colab 笔记本那样详细介绍词法分的细节,但是它展示了如何构建 TPUStrategy 使用的输入管道


由于使用本地文件系统时,TPU 的处理非常复杂,因此使用了 Google Cloud Platform 的桶来托管数据。Colab 笔记本在这里

Transformer 现在可以访问 TensorFlow API 了,那又如何?

Transformer 库的主要卖点是它的模型无关性及其简单的 API。作为在自然语言处理中获得最先进结果的模型的前端,根据当前任务在模型之间进行切换是非常容易的。


作为一个例子,以下是用于在语言分类任务微调 BERT 的完整脚本代码:


model = TFBertForSequenceClassification.from_pretrained("bert-base-cased")tokenizer = BertTokenizer.from_pretrained("bert-base-cased")
data = tensorflow_datasets.load("glue/mrpc")train_dataset = data["train"]train_dataset = glue_convert_examples_to_features(train_dataset, tokenizer, 128, 'mrpc')
optimizer = tf.keras.optimizers.Adam(learning_rate=3e-5, epsilon=1e-08, clipnorm=1.0)loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)metric = tf.keras.metrics.SparseCategoricalAccuracy('accuracy')
model.compile(optimizer=optimizer, loss=loss, metrics=[metric])model.fit(train_dataset, epochs=3)
复制代码


在 MNLI 微调 BERT。


但是,在生产环境中,由于内存是稀缺的资源。你可能会因此希望使用较小的模型,如,切换到 DistilBERT。只需将前两行改为这两行即可,如下代码所示:


model = TFDistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased")tokenizer = DistilbertTokenizer.from_pretrained("distilbert-base-uncased")
复制代码


作为托管十多个 Transformer 架构的平台,🤗Transformer 使得它非常容易使用、微调和比较模型,这些模型已改变了自然语言处理领域的深度学习的格局。它作为许多利用 Transformer 模型的下游应用程序的后端,被许多不同的公司用于生产中。


作者介绍:


Lysandre Debut,机器学习工程师,供职于 Hugging Face,对自然语言处理领域充满热情。


原文链接:


https://medium.com/tensorflow/using-tensorflow-2-for-state-of-the-art-natural-language-processing-102445cda54a


2019-11-09 08:004608

评论

发布
暂无评论
发现更多内容

DataEase 启动异常如何解决:Access denied for user 'root'@'xx.xx.xx.xxx' (using password YES)

搞大屏的小北

DataEase

C/C++ 反汇编:函数与结构体

lyshark

C语言 asm 汇编语言 反汇编

C/C++ 原生API实现线程池

lyshark

C/C++ 反汇编:数据类型与常量

lyshark

汇编语言 逆向工程 反汇编

WorkPlus即时通讯软件,专注于企业信息安全可靠的企业IM

WorkPlus

【知识点】如何快速开发、部署 Serverless 应用?

Serverless Devs

Camtasia2023汉化中文版电脑屏幕录像和编辑的软件

茶色酒

Camtasia2023

AirServer2024免费的手机投屏电脑软件

茶色酒

AirServer AirServer2023

C/C++ 反汇编:针对加减乘除的还原

lyshark

C语言 asm 汇编语言 算法优化 反汇编

新增模型服务、训练记录、源代码关联追溯,助力模型全生命周期管理|ModelWhale 版本更新

ModelWhale

人工智能 机器学习 云计算 数据分析 编程建模

微盟全链路压测:如何帮助电商业务实现10倍性能提升?

TakinTalks稳定性社区

函数计算|如何使用层解决依赖包问题?

Serverless Devs

SR锁存器与D锁存器设计与建模

timerring

FPGA

一文读懂SCADA系统的组件功能及应用

2D3D前端可视化开发

组态软件 工业组态软件 web组态软件 SCADA

C/C++ 反汇编:关于函数调用约定

lyshark

c++ C语言 asm 反汇编 C语言开发环境

C/C++ 反汇编:关于Switch语句的优化措施

lyshark

C语言 asm 汇编语言 反汇编 c++语言

《数字经济全景白皮书》后疫情时代数字化驱动增长洞察之赛道篇

易观分析

数字经济 数智化转型

高密度 ARM 服务器如何引领“数智时代”发展,打通“智变质变”正循环

蓝海大脑GPU

深度学习 并行计算 arm架构 高性能计算 ARM服务器

CMAE 结合对比学习和掩码,提高表征辨别力

Zilliz

低代码开发平台 打开数字化转型普惠之门

力软低代码开发平台

C/C++ 反汇编:多维数组与指针

lyshark

汇编语言 逆向工程 反汇编

营销大数据如何帮助企业深入了解客户-镭速

镭速

微软提出 TinyMIM,首次用掩码预训练改进小型 ViT

Zilliz

可变二维码,玩转“码”上时代

旺链科技

区块链 区块链技术 区块链溯源

C/C++ 反汇编:流程控制与循环结构

lyshark

asm 汇编语言 二进制安全 反汇编

音频编辑服务UI SDK接入指导及常见问题

HMS Core

HMS Core

C/C++ 反汇编:分析类的实现原理

lyshark

C语言 asm 逆向工程 反汇编 算法还原

2023最新版网络安全保姆级指南,从0基础进阶网络攻防工程师

网络安全学海

运维 网络安全 信息安全 渗透测试 漏洞挖掘

英特尔锐炫DX9,DX11,DX12游戏性能持续提升,个别游戏高达87%

科技之家

泰山众筹4.0sun模式开发系统技术

薇電13242772558

智能合约

CrossOver2023MAC电脑切换win系统打造的虚拟机软件

茶色酒

CrossOver2023

如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?_开源_Lysandre Debut_InfoQ精选文章