上一篇:树莓派4B配置摄像头并实现实时人脸检测
目录
一、Windows10安装OpenVINO
 .1、系统要求
 .2、安装步骤
 二、设置环境变量
 .1、临时配置方案
 .2、永久配置方案
 三、配置模型优化器
 .1、方案1:同时为所有支持的框架配置模型优化器
 .2、方案2:单独为各个框架配置模型优化器
 四、使用验证脚本验证安装
 .1、运行图像分类验证脚本
 .2、运行推理管道验证脚本
 五、踩过的坑
 六、Paddle模型转换
 .1、Paddle2Onnx
 6.1.1、环境依赖
 6.1.2、安装方式
 6.1.3、使用方式
 6.1.4、参数选项
 .2、Onnx2IR
 七、参考资料
一、Windows安装OpenVINO
由于树莓派上安装的OpenVINO不具有模型转换功能,故需要在本地电脑上安装相关套件
1.1、系统要求
操作系统要求
 Microsoft Windows 10 64位
 软件要求
- 采用 C++ 以及 MSBuild 的 Microsoft Visual Studio* 2019、2017 或 2015
- CMake 3.4 或更高版本(64 位)
 注:如果想使用 Microsoft Visual Studio 2019,必须安装 CMake 3.14。
- Python 3.6.5 或更高版本(64 位)
1.2、安装步骤
1. OpenVINO官 下载安装包,个人建议安装最新版本,笔者安装的版本为w_openvino_toolkit_p_2020.3.194.exe
 2. 点击安装
根据个人意愿选择是否同意Intel获取个人信息(当然选no啦)
点击,第一部分安装完成后,最终的屏幕会提示您核心组件已安装完成,还需要进行其他几个安装步骤:
安装
 CMake官 下载3.14版本(cmake-3.14.0-win64-x64.msi)
 注意选择将cmake添加到环境变量:
关闭命令提示符窗口后,OpenVINO工具套件环境变量将被删除。可以选择手动永久设置环境变量。
2.2、永久配置方案
打开’我的电脑’–>属性–>高级系统设置–>环境变量,在 “系统变量”下,将以下内容添加为带有相应值的新变量
| %INTEL_OPENVINO_DIR%deployment_toolsinference_enginebinintel64Release | 
| %INTEL_OPENVINO_DIR%deployment_toolsinference_enginebinintel64Debug | 
| %HDDL_INSTALL_DIR%bin | 
| %INTEL_OPENVINO_DIR%opencvbin | 
| %INTEL_OPENVINO_DIR%deployment_toolsngraphlib | 
配置成功后,在执行脚本时,显示如下:
2.运行以下批处理文件,为Caffe*、TensorFlow*、MXNet*、Kaldi* 和ONNX* 配置模型优化器:
3.2、方案2:单独为各个框架配置模型优化器
1.打开命令行工具,前往模型优化器先决条件目录:
现在您可以使用两个简短的演示查看英特尔penVINO工具套件分发版的运行结果,并验证安装是否成功。必须使用演示脚本,因为它们要执行其他配置步骤。
四、使用验证脚本验证安装
首先进入模型优化器推理引擎演示目录
验证脚本完成后,您获得前10个类型的标记和置信度:
在目录下找到,将路径添加到环境变量,然后重新打开命令行,执行
- 一定要用管理员权限进入命令行执行脚本,否则会遇到下面的错误
- 如果修改了OpenVINO的默认安装路径的话,会出现下面的错误
- 同理,运行脚本时也许修改对应的路径,否则 如下错误:
更多关于转换深度学习模型的信息,请访问:
- 转换Caffe*模型
- 转换TensorFlow*模型
- 转换MXNet*模型
- 转换ONNX*模型
六、Paddle模型转换
笔者比较习惯使用Paddle,故这里演示Paddle的模型转化:
 首先应通过调用来序列化模型
6.1、Paddle2Onnx
Paddld2Onnx支持将PaddlePaddle框架下产出的模型转化到ONNX模型格式.
 关于Paddle2ONNX迁移至X2Paddle的说明
6.1.1、环境依赖
- 普通用户环境配置
- 开发者环境配置
6.1.2、安装方式
- 安装方式1
- 安装方式2
6.1.3、使用方式
- 普通用户使用方式
如果用户只是想将paddle模型转化成onnx模型,可以使用下面的命令进行操作。
- 开发者使用方式
如果用户有一个新的模型要转成onnx模型,想验证模型的精确度,可以使用下面的方式来进行验证。
6.1.4、参数选项
| 参数 | 参数说明 | 
|---|---|
| fluid_model | paddle fluid模型和模型参数所在目录 | 
| onnx_model | 转化成onnx模型的模型名称 | 
| name_prefix | [可选]某些paddle模型的模型参数加了前缀,则需要指定模型参数前缀,例如@HUB_mobilenet_v2_imagenet@conv6_2_expand_bn_scale | 
| fluid_model_name | [可选]如果导入的paddle模型不是默认__model__,需要指定模型的名字 | 
| fluid_params_name | [可选]如果导入的paddle模型参数是合并在一个文件里面,需要指定模型参数文件名 | 
| debug | [可选]如果开发者要对转化的模型进行精度测试,打开此开关 | 
| return_variable | [可选]在debug模式中,如果paddle模型返回的结果是LoDTensor,需要打开此开关 | 
| check_task | [可选]在debug模式中,根据不同配置项选择不同的执行器和数据构造器 | 
| image_path | [可选]在debug模式中,可以选择加载不同的图片进行精度验证 | 
6.2、Onnx2IR
1.进入目录,注意替换openvino安装路径
 2.使用mo.py脚本将具有路径的模型转换为输入模型.nnet文件:
更多转换模型命令参数配置
七、参考资料
1.树莓派4B+NCS2代测试yolov3和yolov3_tiny实现object_detection
 2.OpenVINO具包中文文档
 3.配置win10 +openvino遇到的问题及解决方案
 4.运行OpenVINO的demo示例的小问题
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!