网络编程
位置:首页>> 网络编程>> 网络编程>> Tensorflow 模型转换 .pb convert to .lite实例

Tensorflow 模型转换 .pb convert to .lite实例

作者:cefengxu  发布时间:2023-08-13 05:19:04 

标签:Tensorflow,pb,lite

2017年底,Tensorflow 推出Lite版本,可实现移动端的快速运行,其中,一个很关键的问题,如何把现有分类模型(.pb) 转换为(.lite)模型呢?

其实,步骤如下

1- 进入 Tensorflow 源码文件夹(以便bazel可以无需配置找打相应路径)

2- 转换可执行文件


bazel run --config=opt \
//tensorflow/contrib/lite/toco:toco -- \
--input_file=/tmp/mobilenet_v1_1.0_224_frozen.pb \  # 待转换模型路径
--output_file=/tmp/tflite_model2.tflite \      # 目标模型路径
--input_format=TENSORFLOW_GRAPHDEF \
--output_format=TFLITE \
--input_shape=1,224,224,3 \              # 输入图像宽高
--input_array=input \                 # 输入节点名称<参考1>
--output_array=MobilenetV1/Predictions/Reshape_1 \  # 输出节点名称<参考1>
--inference_type=FLOAT \               # 图像数据类型
--input_data_type=FLOAT

参考1: 如果输入输出节点不知道:进入python,import tf ,并通过如下命令( tf.GraphDef() )查找:


>>> import tensorflow as tf
>>> gf = tf.GraphDef()
>>> gf.ParseFromString(open('/your/path/to/graphname.pb','rb').read())
>>> for n in gf.node:
>>>   print ( n.name +' ===> '+n.op )

参转换后,在android手机上运行,在不考虑精度的前提下,不同实现方式得到的结果如下:

模型typemodel sizespeed
mobilenet-v1-224.pb17 mb106 ms
mobilenet-v1-224.lite16.4 mb72 ms

来源:https://blog.csdn.net/u011292539/article/details/80484444

0
投稿

猜你喜欢

手机版 网络编程 asp之家 www.aspxhome.com