写点什么

TensorFlow 模型优化工具包增加新功能,可将深度学习模型缩小一半

  • 2019-08-07
  • 本文字数:1487 字

    阅读完需:约 5 分钟

TensorFlow模型优化工具包增加新功能,可将深度学习模型缩小一半

北京时间 8 月 7 日,TensorFlow 官方在 Medium 博客上更新了一篇文章,宣布为模型优化工具包添加了一项新功能:半精度浮点量化工具,据介绍,该工具能够在几乎不损失精度的情况下,将训练模型缩小一半,还能改善 CPU 和硬件加速器延迟。


TensorFlow 团队将训练后的半精度浮点量化作为模型优化工具包的一部分,这一套工具包括了混合量化,全整数量化和修剪等功能。


通过牺牲极少的精度,训练后的半精度浮点量化成功缩小了 TensorFlow Lite 模型的尺寸(高达 50%),并将模型常数(如权重和偏差值)从全精度浮点(32 位)为精度降低的浮点数据类型(IEEE FP16)。


训练后的半精度浮点是训练 TensorFlow Lite 模型的好工具,因为它对精度的影响极小并且模型尺寸显着减小。


感兴趣的读者可以点击这里查看相关文档,以便解不同的量化选项和方案。


降低精度的好处

降低精度有很多好处,特别是在部署到边缘时:


  • 模型尺寸减少 2 倍。模型中的所有常量值都存储在 16 位浮点数而不是 32 位浮点数中。由于这些常数值通常在整个模型尺寸中占主导地位,因此通常会将模型的尺寸减小约一半。

  • 精确度损失可忽略不计。深度学习模型经常能够在推理上产生良好的结果,同时使用比最初训练时更少的精度。在对几个模型的实验中,研发人员发现推理质量几乎没有损失(见下面的结果)。

尺寸缩小 2 倍,精度折衷可忽略不计

训练后的半精度浮点量化对精度的影响很小,但可以使深度学习模型的大小缩小约 2 倍。例如,以下是 MobileNet V1 和 V2 型号以及 MobileNet SSD 型号的一些结果。MobileNet v1 和 v2 的准确度结果基于ImageNet图像识别任务。在COCO对象识别任务上评估 SSD 模型。


模型准确性

通过将标准 Mobilenet float32 模型和 fp16 变体分别在:ILSVRC 2012 图像分类任务,以及 COCO 对象检测任务上进行了评估,研发人员得到了如下的结果:


如何启用后训练半精度浮点量化

开发者可以在 TensorFlow Lite 转换器上指定训练后的半精度浮点量化,方法是使用训练好的 float32 模型,将优化设置为 DEFAULT,并将目标规范支持的类型设置为半精度浮点常量:


import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.optimizations = [tf.lite.Optimize.DEFAULT] converter.target_spec.supported_types = [tf.lite.constants.FLOAT16] Tflite_quanit_model = converter.convert()
复制代码


转换模型后即可直接运行,就像任何其他 TensorFlow Lite 模型一样。默认情况下,模型将通过将 16 位参数“上采样”为 32 位,然后在标准 32 位浮点运算中执行操作来在 CPU 上运行。


开发者还可以在 GPU 上运行模型。研发团队已经增强了 TensorFlow Lite GPU 代理,以接收精简参数并直接运行(不需要像在 CPU 上那样转换为 float32)。在应用程序中,开发者可以通过 TfLiteGpuDelegateCreate 功能创建GPU代理。指定代理的选项时,请务必设置 precision_loss_allowed 为 1:


//Prepare GPU delegate.  const TfLiteGpuDelegateOptions options = {    .metadata = NULL,    .compile_options = {      .precision_loss_allowed = 1, // FP16      .preferred_gl_object_type = TFLITE_GL_OBJECT_TYPE_FASTEST,      .dynamic_batch_enabled = 0, // Not fully functional yet    },  }; 
复制代码


有关 GPU 代理的概述,请参阅此链接:


https://medium.com/tensorflow/tensorflow-lite-now-faster-with-mobile-gpus-developer-preview-e15797e6dee7


查看使用半精度浮点量化的工作示例请点这里:


https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/g3doc/performance/post_training_float16_quant.ipynb


2019-08-07 15:017033
用户头像
陈思 InfoQ编辑

发布了 576 篇内容, 共 303.7 次阅读, 收获喜欢 1306 次。

关注

评论

发布
暂无评论
发现更多内容

VMware ESXi 6.7 U3v (ESXi670-202503001.zip) 下载

sysin

esxi

VMware ESXi 6.7U3v macOS Unlocker & OEM BIOS 2.7 集成 Realtek 网卡驱动和 NVMe 驱动 (集成驱动版)

sysin

esxi

VMware ESXi 7.0U3s macOS Unlocker & OEM BIOS 2.7 集成网卡驱动和 NVMe 驱动 (集成驱动版)

sysin

esxi

RAGFlow中配置MaaS API使用指导

YG科技

Nexpose 7.9.0 发布,新增功能概览

sysin

Nexpose

IBM 完成对 HashiCorp 的收购,打造全面的端到端混合云平台

财见

AI大模型本地化部署

北京木奇移动技术有限公司

AI开发 AI算力 软件外包公司

深度解读「汇丰银行」人形机器人最新研报:技术瓶颈和核心供应链企业梳理及投资分析

机器人头条

特斯拉 大模型 人形机器人 具身智能 宇树科技

AI本地化的大模型及特点

北京木奇移动技术有限公司

AI大模型 AI开发 软件外包公司

AI本地化大模型的维护

北京木奇移动技术有限公司

AI大模型 AI开发 软件外包公司

Chatbox中配置MaaS模型服务使用全流程

YG科技

(前端二次开发CAD)在线CAD APP调用内部弹框的教程

WEB CAD SDK

网页CAD 在线CAD WEB CAD CAD SDK

AI大模型本地化的技术难点

北京木奇移动技术有限公司

AI开发 AI算力 软件外包公司

VMware ESXi 8.0U2d macOS Unlocker & OEM BIOS 集成网卡驱动和 NVMe 驱动 (集成驱动版)

sysin

esxi

【使用教程】基于MaaS DeepSeek API和Dify快速构建一个网站智能客服

YG科技

MaaS X Cherry Studio:基于DeepSeek API快速构建个人AI智能助手

YG科技

【连载 20】实时信息展示

FunTester

AI大模型的本地化测试

北京木奇移动技术有限公司

AI大模型 AI开发 软件外包公司

淘宝商品评论API接口全攻略

tbapi

淘宝API 淘宝评论API 淘宝评论数据采集

AI大模型本地化部署的流程

北京木奇移动技术有限公司

AI开发 软件外包公司 AI私有化部署

【MaaS应用系列】MaaS X Cursor:基于DeepSeek API快速构建代码编辑器

YG科技

每一个“她”,一路生花

中烟创新

三八妇女节

VMware ESXi 8.0U2d 发布下载 - 领先的裸机 Hypervisor

sysin

esxi

TensorFlow模型优化工具包增加新功能,可将深度学习模型缩小一半_AI&大模型_陈思_InfoQ精选文章