yangjun dfa27afb39 提交PaddleDetection develop 分支 d56cf3f7c294a7138013dac21f87da4ea6bee829 | 1 tahun lalu | |
---|---|---|
.. | ||
README.md | 1 tahun lalu | |
README_en.md | 1 tahun lalu | |
tinypose_128x96.yml | 1 tahun lalu | |
tinypose_256x192.yml | 1 tahun lalu |
简体中文 | English
PP-TinyPose是PaddleDetecion针对移动端设备优化的实时关键点检测模型,可流畅地在移动端设备上执行多人姿态估计任务。借助PaddleDetecion自研的优秀轻量级检测模型PicoDet,我们同时提供了特色的轻量级垂类行人检测模型。TinyPose的运行环境有以下依赖要求:
如希望在移动端部署,则还需要:
单人模型配置 | AP (业务数据集) | AP (COCO Val单人) | 单人耗时 (FP32) | 单人耗时 (FP16) |
---|---|---|---|---|
PicoDet-S-Lcnet-Pedestrian-192*192 + PP-TinyPose-128*96 | 77.1 (+9.1) | 52.3 (+0.5) | 12.90 ms | 9.61 ms |
多人模型配置 | AP (业务数据集) | AP (COCO Val多人) | 6人耗时 (FP32) | 6人耗时 (FP16) |
---|---|---|---|---|
PicoDet-S-Lcnet-Pedestrian-320*320 + PP-TinyPose-128*96 | 78.0 (+7.7) | 50.1 (-0.2) | 47.63 ms | 34.62 ms |
说明
模型 | 输入尺寸 | AP (业务数据集) | AP (COCO Val) | 参数量 | FLOPS | 单人推理耗时 (FP32) | 单人推理耗时(FP16) | 配置文件 | 模型权重 | 预测部署模型 | Paddle-Lite部署模型(FP32) | Paddle-Lite部署模型(FP16) |
---|---|---|---|---|---|---|---|---|---|---|---|---|
PP-TinyPose | 128*96 | 84.3 | 58.4 | 1.32 M | 81.56 M | 4.57ms | 3.27ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
PP-TinyPose | 256*192 | 91.0 | 68.3 | 1.32 M | 326.24M | 14.07ms | 8.33ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
模型 | 输入尺寸 | mAP (COCO Val-Person) | 参数量 | FLOPS | 平均推理耗时 (FP32) | 平均推理耗时 (FP16) | 配置文件 | 模型权重 | 预测部署模型 | Paddle-Lite部署模型(FP32) | Paddle-Lite部署模型(FP16) |
---|---|---|---|---|---|---|---|---|---|---|---|
PicoDet-S-Lcnet-Pedestrian | 192*192 | 31.7 | 1.16 M | 170.03 M | 5.24ms | 3.66ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
PicoDet-S-Lcnet-Pedestrian | 320*320 | 41.6 | 1.16 M | 472.07 M | 13.87ms | 8.94ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
说明
COCO train2017
, AI Challenger trainset
以及采集的多姿态场景数据集作为训练集。关键点检测模型使用多姿态场景数据集作为测试集,行人检测模型采用COCO instances val2017
作为测试集。2021版本
单人模型配置 | AP (COCO Val 单人) | 单人耗时 (FP32) | 单人耗时 (FP16) |
---|---|---|---|
PicoDet-S-Pedestrian-192*192 + PP-TinyPose-128*96 | 51.8 | 11.72 ms | 8.18 ms |
其他优秀开源模型-192*192 | 22.3 | 12.0 ms | - |
多人模型配置 | AP (COCO Val 多人) | 6人耗时 (FP32) | 6人耗时 (FP16) |
---|---|---|---|
PicoDet-S-Pedestrian-320*320 + PP-TinyPose-128*96 | 50.3 | 44.0 ms | 32.57 ms |
其他优秀开源模型-256*256 | 39.4 | 51.0 ms | - |
说明
模型 | 输入尺寸 | AP (COCO Val) | 单人推理耗时 (FP32) | 单人推理耗时(FP16) | 配置文件 | 模型权重 | 预测部署模型 | Paddle-Lite部署模型(FP32) | Paddle-Lite部署模型(FP16) |
---|---|---|---|---|---|---|---|---|---|
PP-TinyPose | 128*96 | 58.1 | 4.57ms | 3.27ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
PP-TinyPose | 256*192 | 68.8 | 14.07ms | 8.33ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
模型 | 输入尺寸 | mAP (COCO Val-Person) | 平均推理耗时 (FP32) | 平均推理耗时 (FP16) | 配置文件 | 模型权重 | 预测部署模型 | Paddle-Lite部署模型(FP32) | Paddle-Lite部署模型(FP16) |
---|---|---|---|---|---|---|---|---|---|
PicoDet-S-Pedestrian | 192*192 | 29.0 | 4.30ms | 2.37ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
PicoDet-S-Pedestrian | 320*320 | 38.5 | 10.26ms | 6.30ms | Config | Model | 预测部署模型 | Lite部署模型 | Lite部署模型(FP16) |
说明
COCO train2017
和AI Challenger trainset
作为训练集。关键点检测模型使用COCO person keypoints val2017
作为测试集,行人检测模型采用COCO instances val2017
作为测试集。关键点检测模型与行人检测模型的训练集在COCO
以外还扩充了AI Challenger数据集,各数据集关键点定义如下:
COCO keypoint Description:
0: "Nose",
1: "Left Eye",
2: "Right Eye",
3: "Left Ear",
4: "Right Ear",
5: "Left Shoulder,
6: "Right Shoulder",
7: "Left Elbow",
8: "Right Elbow",
9: "Left Wrist",
10: "Right Wrist",
11: "Left Hip",
12: "Right Hip",
13: "Left Knee",
14: "Right Knee",
15: "Left Ankle",
16: "Right Ankle"
AI Challenger Description:
0: "Right Shoulder",
1: "Right Elbow",
2: "Right Wrist",
3: "Left Shoulder",
4: "Left Elbow",
5: "Left Wrist",
6: "Right Hip",
7: "Right Knee",
8: "Right Ankle",
9: "Left Hip",
10: "Left Knee",
11: "Left Ankle",
12: "Head top",
13: "Neck"
由于两个数据集的关键点标注形式不同,我们将两个数据集的标注进行了对齐,仍然沿用COCO的标注形式,您可以下载训练的参考列表并放在dataset/
下使用。对齐两个数据集标注文件的主要处理如下:
AI Challenger
关键点标注顺序调整至与COCO一致,统一是否标注/可见的标志位;AI Challenger
中特有的点位;将AI Challenger
数据中COCO
特有点位标记为未标注;重新排列了image_id
与annotation id
;
利用转换为COCO
形式的合并数据标注,执行模型训练:
```bash
python3 -m paddle.distributed.launch tools/train.py -c configs/keypoint/tiny_pose/tinypose_128x96.yml
python3 -m paddle.distributed.launch tools/train.py -c configs/picodet/application/pedestrian_detection/picodet_s_320_pedestrian.yml
## 部署流程
### 实现部署预测
1. 通过以下命令将训练得到的模型导出:
```bash
python3 tools/export_model.py -c configs/picodet/application/pedestrian_detection/picodet_s_192_pedestrian.yml --output_dir=outut_inference -o weights=output/picodet_s_192_pedestrian/model_final
python3 tools/export_model.py -c configs/keypoint/tiny_pose/tinypose_128x96.yml --output_dir=outut_inference -o weights=output/tinypose_128x96/model_final
导出后的模型如:
picodet_s_192_pedestrian
├── infer_cfg.yml
├── model.pdiparams
├── model.pdiparams.info
└── model.pdmodel
您也可以直接下载模型库中提供的对应预测部署模型
,分别获取得到行人检测模型和关键点检测模型的预测部署模型,解压即可。
执行Python联合部署预测 ```bash
python3 deploy/python/det_keypoint_unite_infer.py --det_model_dir=output_inference/picodet_s_320_pedestrian --keypoint_model_dir=output_inference/tinypose_128x96 --image_file={your image file} --device=GPU
python3 deploy/python/det_keypoint_unite_infer.py --det_model_dir=output_inference/picodet_s_320_pedestrian --keypoint_model_dir=output_inference/tinypose_128x96 --image_dir={dir of image file} --device=GPU
python3 deploy/python/det_keypoint_unite_infer.py --det_model_dir=output_inference/picodet_s_320_pedestrian --keypoint_model_dir=output_inference/tinypose_128x96 --video_file={your video file} --device=GPU
3. 执行C++联合部署预测
- 请先按照[C++端预测部署](https://github.com/PaddlePaddle/PaddleDetection/tree/release/2.3/deploy/cpp),根据您的实际环境准备对应的`paddle_inference`库及相关依赖。
- 我们提供了[一键编译脚本](https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.3/deploy/cpp/scripts/build.sh),您可以通过该脚本填写相关环境变量的位置,编译上述代码后,得到可执行文件。该过程中请保证`WITH_KEYPOINT=ON`.
- 编译完成后,即可执行部署预测,例如:
```bash
# 预测一张图片
./build/main --model_dir=output_inference/picodet_s_320_pedestrian --model_dir_keypoint=output_inference/tinypose_128x96 --image_file={your image file} --device=GPU
# 预测多张图片
./build/main --model_dir=output_inference/picodet_s_320_pedestrian --model_dir_keypoint=output_inference/tinypose_128x96 --image_dir={dir of image file} --device=GPU
# 预测一个视频
./build/main --model_dir=output_inference/picodet_s_320_pedestrian --model_dir_keypoint=output_inference/tinypose_128x96 --video_file={your video file} --device=GPU
Paddle-Lite部署模型
,分别获取得到行人检测模型和关键点检测模型的.nb
格式文件。如果您希望将自己训练的模型应用于部署,可以参考以下步骤:
python3 tools/export_model.py -c configs/keypoint/tiny_pose/tinypose_128x96.yml --output_dir=outut_inference -o weights=output/tinypose_128x96/model_final TestReader.fuse_normalize=true
2. 转换为Lite模型(依赖[Paddle-Lite](https://github.com/PaddlePaddle/Paddle-Lite))
- 安装Paddle-Lite:
```bash
pip install paddlelite
执行以下步骤,以得到对应后缀为.nb
的Paddle-Lite模型用于端侧部署:
```
paddle_lite_opt --model_dir=inference_model/picodet_s_192_pedestrian --valid_targets=arm --optimize_out=picodet_s_192_pedestrian_fp32
paddle_lite_opt --model_dir=inference_model/picodet_s_192_pedestrian --valid_targets=arm --optimize_out=picodet_s_192_pedestrian_fp16 --enable_fp16=true
paddle_lite_opt --model_dir=inference_model/tinypose_128x96 --valid_targets=arm --optimize_out=tinypose_128x96_fp32
paddle_lite_opt --model_dir=inference_model/tinypose_128x96 --valid_targets=arm --optimize_out=tinypose_128x96_fp16 --enable_fp16=true ```
我们已提供包含数据预处理、模型推理及模型后处理的全流程示例代码,可根据实际需求进行修改。
注意
TestReader.fuse_normalize=true
参数,可以将对图像的Normalize操作合并在模型中执行,从而实现加速。请参考关键点稳定策略。
TinyPose采用了以下策略来平衡模型的速度和精度表现: