基于机器学习的交通视频分析程序设计文献综述

 2023-08-21 04:08
  1. 文献综述(或调研报告):

分析交通视频对分析和评估道路交通流至关重要,车辆目标检测与跟踪即是交通视频分析的重点。

车辆目标检测是一种特殊的目标检测,目标检测则是计算机视觉领域一个重要挑战。车辆目标检测的重点是识别,定位和分割[1],即识别图像中是否存在车辆,若存在车辆则从复杂背景中确定车辆的位置和范围,然后对图像的像素进行分割。

传统的车辆目标检测算法都是基于人工特征提取的检测方法,即通过对图像中车辆部分进行手动特征提取,然后通过分类器进行分类。许多学者对于提取的特征进行了研究。在Papageorgiou提出了通过提取特征进行目标检测的框架之后[2],Viola、Lowe、Dalal等人分别提出了积分图像特征、尺度不变特征、梯度直方图特征[3-5]。但是,传统的检测算法需要人工对特征进行提取,这就意味着其有移植性差、复杂度高和漏提特征的缺点[1]

而基于深度学习的车辆目标检测方法则因为不需要人工提取特征,克服了传统模型的缺陷;并且近些年随着硬件水平的快速发展和卷积神经网络的提出[6],车辆目标检测的效率提高到一个新的高度。

基于深度学习的目标检测方法可以分成两大类,Two-stage类和One-Stage类。Two-stage类算法第一步在原图像上生成一系列的候选区域,第二步再通过卷积神经网络进行样本分类和回归。而One-Stage类算法则直接回归物体的类别概率和位置坐标值。

Two-stage类别的算法主要有RCNN算法及其演进算法。2014年Girshick等人提出了RCNN算法[7]。在2015年,Girshick等人在RCNN算法基础上改进后提出了Fast-RCNN算法[8],相比RCNN算法有着更高的准确率;而REN等人也在同年进一步改进提出了Faster-RCNN算法[9],节约了计算成本。2017年,He等提出了Mask-RCNN[10],其通过增加了一个Mask分支,提高了算法的分割精度并降低了时间占用。

One-stage类别的典型算法主要有YOLO系列算法和SSD等。2015年Redmon等人提出了YOLO算法[11],其将目标检测视作回归问题,将整张图片作为输入,直接得到边界框和检测结果的输出。YOLO算法检测速度非常快,避免了背景错误的同时可以学习到目标的泛化特征,同时也有着检测精度相对较低、定位容易出现错误和密集小物体检测效果不好的问题。由此,Liu等人基于YOLO提出了SSD模型[12],该模型借鉴了Faster-RCNN模型中的锚点机制,提高了检测速度和精度。2017年,Redmon等人提出了YOLOv2[13],其吸取多种检测算法之优势,大幅提高了精度、运算速度和分类强度。而后,Redmon等人又提出了YOLOv3[14],其调整了网络结构,添加了多尺度训练,将YOLO系列算法的短板几乎补齐,提高了检测效果和运行速度。

虽然Two-stage类别算法精度较高,但是训练时间较长,标注工作量繁杂,而One-stage类中经过多次改进得到的YOLOv3算法则有着较好的检测效果的同时,对其他检测目标有着良好的兼容性并且符合车辆目标检测算法实时性的要求。

车辆跟踪算法按照特征可以分类成区域匹配跟踪算法、特征匹配跟踪算法、轮廓匹配跟踪算法、光流跟踪算法等[15]

区域匹配跟踪是通过使用匹配的方法跟踪行驶车辆的一个连通区域,其将一帧图像中的前景模块的特征提取后与相邻帧的前景模块匹配[16],实现车辆跟踪。特征匹配算法是提取帧图像中车辆框架、颜色及纹理等特征,将相邻帧之间的特征进行对比后匹配[17],以实现跟踪。轮廓匹配算法则通过封闭的曲线来描述目标轮廓以实现跟踪,如果轮廓曲线初始化合理,会有较高的跟踪精度,但是曲线初始化难度较高[15]。光流跟踪算法主要运用运动光流场对目标进行跟踪[18],算法整体计算复杂,耗时大,难以实现实时跟踪。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。