计算机工程与应用 ›› 2020, Vol. 56 ›› Issue (24): 181-187.DOI: 10.3778/j.issn.1002-8331.1912-0328
黄怡蒙,易阳
HUANG Yimeng, YI Yang
摘要:
Tiny-YOLOV3是目标检测领域常用的检测算法,相比较YOLOV3,其优点是神经网络层比较简单,计算量少,且对硬件的配置要求较低,因此可以保证检测的实时性,但由于网络层比较少,检测的精度也较低。为了提高Tiny-YOLOV3在网络中的检测精度,提出一类Tiny-YOLOV3改进模型,调整检测网络架构的损失结构层,以卷积层和特征图的相关系数矩阵表征特征图分布,设计损失函数优化损失特征层分布,增强网络特征的表达能力。结合NAO机器人平台,采用三角函数定位将基于图像的目标检测位置转换为机器人坐标系位置。根据4 000张VOC数据格式自制数据集进行模型训练与测试,针对不同物体在变化位置下进行50次机器人手臂抓取实验。相比原始Tiny-YOLOV3模型,改进的网络模型在分辨率为640×480单张图片的检测速度35 帧/s前提下,检测mAP值提高了4.08%,置信度提高20%。实验结果表明算法在兼顾目标检测时间效率的前提下有效提高了目标检测准确度,可满足机器人在分拣、采摘、监控、服务等多样实时性应用场景需求。