从PyTorch/Onnx、AIMET量化到 QNN GPU 部署全流程实战:GPU 推理 300FPS+

张开发
2026/4/3 16:07:25 15 分钟阅读
从PyTorch/Onnx、AIMET量化到 QNN GPU 部署全流程实战:GPU 推理 300FPS+
YOLOv8s 从 AIMET 量化到 QNN GPU 部署全流程实战、GPU 推理 3ms/帧1. 环境准备组件版本/路径QNN SDKv2.45.0.260326Android NDKr26d目标设备Qualcomm SM8750目标架构aarch64-androidexportQNN_TARGET_ARCH="aarch64-android"exportNDK_ROOT=/home/mi/Android/android-ndk-r26dexportPATH=$NDK_ROOT/build:$PATHexportPATH=$NDK_ROOT/toolchains/llvm/prebuilt/linux-x86_64/bin:$PATHsource${QNN_SDK_ROOT}/bin/envsetup.sh2. ONNX → QNN 模型转换使用qnn-onnx-converter将 YOLOv8s ONNX 模型转换为 QNN C++ + BIN 格式:${QNN_SDK_ROOT}/bin/x86_64-linux-clang/qnn-onnx-converter\--input_network/path/to/8-best.onnx\--output_path/path/to/FP32/8-best.cpp转换输出三个文件:8-best.cpp— API 调用序列8-best.bin— 模型静态权重数据

更多文章