一文读懂OrangePi AIpro体验测评与应用开发
OrangePi AIpro 基本介绍 OrangePi AIpro采用昇腾AI技术路线,具体为**4核64位处理器+AI处理器**,集成图形处理器,支持**8TOPS AI算力**,拥有**8GB/16GB LPDDR4X**,可以外接32GB/64GB/128GB/256GB eMMC模块,支持双4K高清输出。 Orange Pi AIpro引用了相当丰富的接口,包括两个HDMI输出、G
OrangePi AIpro 基本介绍
OrangePi AIpro采用昇腾AI技术路线,具体为**4核64位处理器+AI处理器**,集成图形处理器,支持**8TOPS AI算力**,拥有**8GB/16GB LPDDR4X**,可以外接32GB/64GB/128GB/256GB eMMC模块,支持双4K高清输出。 Orange Pi AIpro引用了相当丰富的接口,包括两个HDMI输出、GPIO接口、Type-C电源接口、支持SATA/NVMe SSD 2280的M.2插槽、TF插槽、千兆网口、两个USB3.0、一个USB Type-C 3.0、一个Micro USB(串口打印调试功能)、两个MIPI摄像头、一个MIPI屏等,预留电池接口,可广泛适用于AI边缘计算、深度视觉学习及视频流AI分析、视频图像分析、自然语言处理、智能小车、机械臂、人工智能、无人机、云计算、AR/VR、智能安防、智能家居等领域,覆盖 AIoT各个行业。 Orange Pi AIpro支持Ubuntu、openEuler操作系统,满足大多数AI算法原型验证、推理应用开发的需求。
AI边缘计算产品对比
从产品的定位来看, OrangePi AIpro定位是打造高性能AI边缘计算设备。同品类的其他厂商设备主要有NVIDIA Jetson TX1/TX2系列等边缘计算产品。
同类产品参数对比: 整体来看OrangePi AIpro 还是一款性价比很高的AI边缘计算产品
参数 |
OrangePi AIpro |
OrangePi AIpro New |
Jetson TX2 |
Jetson Xavier NX |
Jetson AGX Orin |
AI算力 |
8 TOPS(INT8) // 4 TFLOPS(FP16) |
20 TOPS |
1.33 TFLOPS |
21 TOPS |
275 TOPS |
GPU |
华为昇腾 AI处理器 |
华为昇腾 AI处理器 |
256 核 NVIDIA Pascal™ 架构 |
48 个 Tensor Core 的 384 核 NVIDIA Volta™ 架构 |
64 个 Tensor Core 的 2048 核 NVIDIA Ampere 架构 |
CPU |
4 核 64 位 ARM 处理器 |
待发布 |
4核 ARM ® Cortex®-A57 MPCore |
6 核 NVIDIA Carmel Arm® v8.2 |
12 核 Arm® Cortex® A78AE v8.2 |
内存 |
8GB 或 16GB LPDDR4X |
12GB 或 24GB LPDDR4X |
4GB 或 8GB LPDDR4 |
8GB 或 16GB LPDDR4X |
32GB 或 64GB LPDDR5 |
存储 |
可外接 eMMC / NVMe SSD / SATA SSD |
16/32GB eMMC 5.1 |
16/32GB eMMC 5.1 |
64GB eMMC 5.1 |
|
其他外设 |
蓝牙/WIFI/以太网/USB/HDMI/MIPI CSI摄像头 |
蓝牙/WIFI/以太网/USB/HDMI/MIPI CSI摄像头 |
WIFI/以太网/USB/HDMI/MIPI CSI摄像头 |
WIFI/以太网/USB/HDMI/MIPI CSI摄像头 |
WIFI/以太网/USB/HDMI/MIPI CSI摄像头 |
价格 |
860元 |
1500元 |
1260元 |
3360元 |
13900元 |
性能测试体验
-
Orange Pi AIpro支持Ubuntu、openEuler操作系统,满足大多数AI算法原型验证、推理应用开发的需求。
-
开发板支持从 **TF 卡**、**eMMC** 和 **SSD**(支持 NVMe SSD 和 SATA SSD)三种模式启动。
-
这里使用的是 Orange Pi AIpro 默认在32G TF卡刷了 Ubuntu 22.04.4 LTS (GNU/Linux 5.10.0+ aarch64)
-
点亮系统
-
系统有4个CPU核 默认设置 Control CPU : AI CPU = 3 : 1
-
可以根据的应用场景,设置对应的CPU比例模式
sudo npu-smi set -t cpu-num-cfg -i 0 -c 0 -v 0:4:0 // 4个Control CPU sudo npu-smi set -t cpu-num-cfg -i 0 -c 0 -v 0:2:2 // 2个Control CPU
# 查询 CPU设置命令 npu-smi info -t cup-num-cfg -i 0 -c 0 Current AI CPU number : 1 Current control CPU number : 3 Current data CPU number : 0
watch -n 1 npu-smi info -t usages -i 0 -c 0 Memory Capacity(MB) : 7545 Memory Usage Rate(%) : 26 Hugepages Total(page) : 15 Hugepages Usage Rate(%) : 100 Aicore Usage Rate(%) : 0 Aicpu Usage Rate(%) : 0 Ctrlcpu Usage Rate(%) : 1 Memory Bandwidth Usage Rate(%) : 0
-
Jupyter远程启动测试官方例程
cd ~/samples/notebooks bash start_notebook.sh 192.168.0.108 # 设置为自己系统对应的ip
-
官方例程在OrangePi AIpro上的运行效果
-
YOLOv5 目标检测
-
YOLOv5系列中较为轻量的网络,适合在边缘设备部署,进行实时目标检测。
-
从测试效果看设备的 Control CPU 、AI CPU、以及Memory的占用都是比较低的。
-
暂时无法在飞书文档外展示此内容
-
OCR 识别
-
这里测试的OCR模式为:检测模型为CTPN,识别模型则是SVTR
-
CTPN模型基于Faster RCNN模型修改而来,而SVTR则基于近几年十分流行的Vision Transformer模型
-
测试结果来看 单帧推理的速度 0.43s, 复杂一些的图片推理, 时间为1.57s
-
ResNet50 物体检测
-
这里测试的是一个 resnet50.caffemodel
-
进行模型转换后测试单帧图像检测的速度为48ms, 速度还是很快的。
atc --model=resnet50.prototxt --weight=resnet50.caffemodel --framework=0 --output=resnet50 --input_format=NCHW --soc_version=Ascend310B1 --input_fp16_nodes=data --output_type=FP32 --out_nodes=prob:0
-
-
图像增强模型测试
-
初始化acl资源:在调用acl相关资源时,必须先初始化AscendCL,否则可能会导致后续系统内部资源初始化出错。
-
对输入进行预处理:包括图像归一化、缩放、颜色转换操作。
-
推理:利用AclLiteModel.execute接口进行推理。
-
对推理结果进行后处理:包括形状变换、缩放、颜色转换操作,保存增强后图像。
-
5 CartoonGAN 图像风格迁移
-
初始化acl资源:在调用acl相关资源时,必须先初始化AscendCL,否则可能会导致后续系统内部资源初始化出错。
-
对图片进行前处理:在此样例中,我们首先根据图片路径,构造AclLiteImage类型的数据,再利用.jpegd和.crop_and_paste_get_roi转换图片格式、裁剪图片。注意由于模型输入是yuv格式,所以我们利用了AclLiteImageProc.jpegd将图片转为yuv,使得模型正常推理。
-
推理:利用AclLiteModel.execute接口对图片进行推理。
-
对推理结果进行后处理:包括两个步骤,即转换像素值值域以及将图片缩放到原图大小
总结
-
整体来看OrangePi AIpro 还是一款性价比很高的AI边缘计算产品,正常的CPU运算和边缘端的AI推理都能很好的支持,比较适合AI硬件开发。
-
依托华为昇腾的生态,能够方便各类主流模型的迁移和转化,方便各类AI应用的部署和应用。
参考文档
更多推荐
所有评论(0)