基于机器学习的图像识别技术研究文献综述

 2022-09-23 04:09

文献综述(或调研报告):

  1. 文献综述:

典型的图像识别系统组成如图[12]

系统中最为重要,也是最影响图像识别准确率的莫过于特征提取环节。这也是研究者们关注最多的部分,因为系统最终的性能很大程度上取决于特征提取方法的优劣。

由于图像原始空间维度巨大,直接在其中进行处理是低效且不经济的,这就需要特征提取环节以降低维度。传统的降维方法有主成成分分析(PCA)、线性鉴别分析(LDA)和局部保持投影(LPP)等[12]。这些经典方法都是将分类任务放在特征提取过程后进行,也就是说,图像数据经过降维后再用于分类器的训练。

而机器学习方法则与之不同,将特征提取和学习任务同时进行,可以更加高效的学习到有利于分类的特征。神经网络多隐层堆叠, 每一层都对上一层的输出进行处理, 从而把最初始的输入与输出目标之间不太密切的联系, 转化为更为密切的表示, 使得原来仅基于最后一层输出映射难以完成的任务变为可能, 这种学习模式也可理解为自动的“特征学习”。

2001年Alex等人提出AlexNet[1],是第一个用于图像识别的深层次卷积神经网络。相比于传统的CNN结构, Alex Net网络变得更深更宽, 该网络由5个卷积层和3个全连接层依次叠加组成。Alex Net网络确立了深度学习 (深度卷积网络) 在图像识别的统治地位, 也定义了深度学习模型在图像处理领域的一般性主体架构———前馈卷积神经网络:卷积层与池化层多样化相互堆叠作为特征提取器, 随后连接多层全连接层, 作为分类器, 信息流方向固定而单一。

VGG16 [2]是Alex Net网络更深更宽的演进。相比于Alex Net网络, VGGNet网络局部采用更多的小型卷积核串联叠加替换一个大型的卷积核。这样做不仅取得同样的卷积效果, 还添加了更多的非线性操作, 使得网络能提取到更加丰富的特征, 同时参数量还减少了。VGGNet网络证明了网络层次越深提取的特征越丰富图像识别效果越好。

尽管VGG在ImageNet数据集上表现很好,但由于其在内存和时间上的计算要求很高,使得将VGG的部署成为了一件门槛不低的事。此外,卷积层通道数过大,也导致VGG并不高效。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。