近日,快又框架开源美团视觉智能部研发了一款致力于工业应用的目标目标检测框架 YOLOv6 ,能够同时专注于检测的检测精度和推理效率 。在研发过程中 ,快又框架开源视觉智能部不断进行了探索和优化,目标同时吸取借鉴了学术界和工业界的检测一些前沿进展和科研成果。在目标检测权威数据集 COCO 上的快又框架开源实验结果显示 ,YOLOv6 在检测精度和速度方面均超越其他同体量的目标算法 ,同时支持多种不同平台的检测部署,极大简化工程部署时的快又框架开源适配工作。特此开源,目标希望能帮助到更多的检测同学。
YOLOv6 是快又框架开源美团视觉智能部研发的一款目标检测框架,致力于工业应用。目标本框架同时专注于检测的检测精度和推理效率 ,在工业界常用的尺寸模型中:YOLOv6-nano 在 COCO 上精度可达 35.0% AP ,在 T4 上推理速度可达 1242 FPS;YOLOv6-s 在 COCO 上精度可达 43.1% AP,在 T4 上推理速度可达 520 FPS。在部署方面 ,YOLOv6 支持 GPU(TensorRT)、CPU(OPENVINO) 、ARM(MNN 、TNN、NCNN)等不同平台的部署 ,极大地简化工程部署时的适配工作 。
目前,项目已开源至Github,传送门 :https://github.com/meituan/YOLOv6。欢迎有需要的小伙伴们Star收藏 ,随时取用 。
目标检测作为计算机视觉领域的一项基础性技术,在工业界得到了广泛的应用,其中 YOLO 系列算法因其较好的综合性能,逐渐成为大多数工业应用时的首选框架 。至今,业界已衍生出许多 YOLO 检测框架 ,其中以 YOLOv5[1]、YOLOX[2] 和 PP-YOLOE[3] 最具代表性,但在实际使用中,我们发现上述框架在速度和精度方面仍有很大的提升的空间。基于此,我们通过研究并借鉴了业界已有的先进技术,开发了一套新的目标检测框架——YOLOv6 。该框架支持模型训练、推理及多平台部署等全链条的工业应用需求,并在网络结构、训练策略等算法层面进行了多项改进和优化 ,在 COCO 数据集上 ,YOLOv6 在精度和速度方面均超越其他同体量算法,相关结果如下图 1 所示 :
图1-1 YOLOv6 各尺寸模型与其他模型性能对比
图1-2 YOLOv6 与其他模型在不同分辨率下性能对比
图 1-1 展示了不同尺寸网络下各检测算法的性能对比,曲线上的点分别表示该检测算法在不同尺寸网络下(s/tiny/nano)的模型性能 ,从图中可以看到,YOLOv6 在精度和速度方面均超越其他 YOLO 系列同体量算法。
图 1-2 展示了输入分辨率变化时各检测网络模型的性能对比 ,曲线上的点从左往右分别表示图像分辨率依次增大时(384/448/512/576/640)该模型的性能 ,从图中可以看到,YOLOv6 在不同分辨率下,仍然保持较大的性能优势 。
YOLOv6 主要在 BackBone、Neck 、Head 以及训练策略等方面进行了诸多的改进:
YOLOv5/YOLOX 使用的 Backbone 和 Neck 都基于 CSPNet[5] 搭建,采用了多分支的方式和残差结构 。对于 GPU 等硬件来说 ,这种结构会一定程度上增加延时,同时减小内存带宽利用率。下图 2 为计算机体系结构领域中的 Roofline Model[8] 介绍图 ,显示了硬件中计算能力和内存带宽之间的关联关系。