上一篇:树莓派4B配置摄像头并实现实时人脸检测
目录
一、Windows10安装OpenVINO
.1、系统要求
.2、安装步骤
二、设置环境变量
.1、临时配置方案
.2、永久配置方案
三、配置模型优化器
.1、方案1:同时为所有支持的框架配置模型优化器
.2、方案2:单独为各个框架配置模型优化器
四、使用验证脚本验证安装
.1、运行图像分类验证脚本
.2、运行推理管道验证脚本
五、踩过的坑
六、Paddle模型转换
.1、Paddle2Onnx
6.1.1、环境依赖
6.1.2、安装方式
6.1.3、使用方式
6.1.4、参数选项
.2、Onnx2IR
七、参考资料
一、Windows安装OpenVINO
由于树莓派上安装的OpenVINO不具有模型转换功能,故需要在本地电脑上安装相关套件
1.1、系统要求
操作系统要求
Microsoft Windows 10 64位
软件要求
- 采用 C++ 以及 MSBuild 的 Microsoft Visual Studio* 2019、2017 或 2015
- CMake 3.4 或更高版本(64 位)
注:如果想使用 Microsoft Visual Studio 2019,必须安装 CMake 3.14。 - Python 3.6.5 或更高版本(64 位)
1.2、安装步骤
1. OpenVINO官 下载安装包,个人建议安装最新版本,笔者安装的版本为w_openvino_toolkit_p_2020.3.194.exe
2. 点击安装
根据个人意愿选择是否同意Intel获取个人信息(当然选no啦)
点击,第一部分安装完成后,最终的屏幕会提示您核心组件已安装完成,还需要进行其他几个安装步骤:
安装
CMake官 下载3.14版本(cmake-3.14.0-win64-x64.msi)
注意选择将cmake添加到环境变量:
关闭命令提示符窗口后,OpenVINO工具套件环境变量将被删除。可以选择手动永久设置环境变量。
2.2、永久配置方案
打开’我的电脑’–>属性–>高级系统设置–>环境变量,在 “系统变量”下,将以下内容添加为带有相应值的新变量
%INTEL_OPENVINO_DIR%deployment_toolsinference_enginebinintel64Release |
%INTEL_OPENVINO_DIR%deployment_toolsinference_enginebinintel64Debug |
%HDDL_INSTALL_DIR%bin |
%INTEL_OPENVINO_DIR%opencvbin |
%INTEL_OPENVINO_DIR%deployment_toolsngraphlib |
配置成功后,在执行脚本时,显示如下:
2.运行以下批处理文件,为Caffe*、TensorFlow*、MXNet*、Kaldi* 和ONNX* 配置模型优化器:
3.2、方案2:单独为各个框架配置模型优化器
1.打开命令行工具,前往模型优化器先决条件目录:
现在您可以使用两个简短的演示查看英特尔penVINO工具套件分发版的运行结果,并验证安装是否成功。必须使用演示脚本,因为它们要执行其他配置步骤。
四、使用验证脚本验证安装
首先进入模型优化器推理引擎演示目录
验证脚本完成后,您获得前10个类型的标记和置信度:
在目录下找到,将路径添加到环境变量,然后重新打开命令行,执行
- 一定要用管理员权限进入命令行执行脚本,否则会遇到下面的错误
- 如果修改了OpenVINO的默认安装路径的话,会出现下面的错误
- 同理,运行脚本时也许修改对应的路径,否则 如下错误:
更多关于转换深度学习模型的信息,请访问:
- 转换Caffe*模型
- 转换TensorFlow*模型
- 转换MXNet*模型
- 转换ONNX*模型
六、Paddle模型转换
笔者比较习惯使用Paddle,故这里演示Paddle的模型转化:
首先应通过调用来序列化模型
6.1、Paddle2Onnx
Paddld2Onnx支持将PaddlePaddle框架下产出的模型转化到ONNX模型格式.
关于Paddle2ONNX迁移至X2Paddle的说明
6.1.1、环境依赖
- 普通用户环境配置
- 开发者环境配置
6.1.2、安装方式
- 安装方式1
- 安装方式2
6.1.3、使用方式
- 普通用户使用方式
如果用户只是想将paddle模型转化成onnx模型,可以使用下面的命令进行操作。
- 开发者使用方式
如果用户有一个新的模型要转成onnx模型,想验证模型的精确度,可以使用下面的方式来进行验证。
6.1.4、参数选项
参数 | 参数说明 |
---|---|
fluid_model | paddle fluid模型和模型参数所在目录 |
onnx_model | 转化成onnx模型的模型名称 |
name_prefix | [可选]某些paddle模型的模型参数加了前缀,则需要指定模型参数前缀,例如@HUB_mobilenet_v2_imagenet@conv6_2_expand_bn_scale |
fluid_model_name | [可选]如果导入的paddle模型不是默认__model__,需要指定模型的名字 |
fluid_params_name | [可选]如果导入的paddle模型参数是合并在一个文件里面,需要指定模型参数文件名 |
debug | [可选]如果开发者要对转化的模型进行精度测试,打开此开关 |
return_variable | [可选]在debug模式中,如果paddle模型返回的结果是LoDTensor,需要打开此开关 |
check_task | [可选]在debug模式中,根据不同配置项选择不同的执行器和数据构造器 |
image_path | [可选]在debug模式中,可以选择加载不同的图片进行精度验证 |
6.2、Onnx2IR
1.进入目录,注意替换openvino安装路径
2.使用mo.py脚本将具有路径的模型转换为输入模型.nnet文件:
更多转换模型命令参数配置
七、参考资料
1.树莓派4B+NCS2代测试yolov3和yolov3_tiny实现object_detection
2.OpenVINO具包中文文档
3.配置win10 +openvino遇到的问题及解决方案
4.运行OpenVINO的demo示例的小问题
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!