en
×

分享给微信好友或者朋友圈

使用微信“扫一扫”功能。
参考文献 1
ZhangF, WilkieD, ZhengY, et al. Sensing the pulse of urban refueling behavior[C]// Proceedings of the 2013 ACM International Joint Conference on Pervasive and Ubiquitous Computing. New York: ACM, 2013:13-22.
参考文献 2
DatondjiS R E, DupuisY, SubiratsP, et al. A survey of vision-based traffic monitoring of road intersections[J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(10):2681-2698.
参考文献 3
AmbardekarA, NicolescuM, BebisG, et al. Vehicle classification framework: A comparative study[J]. Eurasip Journal on Image & Video Processing, 2014, 29(1):1-13.
参考文献 4
ZhangZ, TanT, HuangK, et al.Three-dimensional deformable-model[J]. IEEE Transactions on Image Processing a Publication of the IEEE Signal Processing Society, 2012, 21(1):1-13.
参考文献 5
WeiW, ZhangQ, WangM. A method of vehicle classification using models and neural networks[C]// Proceedings of IEEE VTS 53rd Vehicular Technology Conference, Spring 2001. Greece: IEEE, 2001:3022-3026.
参考文献 6
LaiA H S, FungG S K, YungN H C. Vehicle type classification from visual-based dimension estimation[C]// Proceedings of Intelligent Transportation Systems. Oakland: IEEE, 2002:201-206.
参考文献 7
ProkajJ, MedionoG. 3-D model based vehicle recognition[C]// Proceedings of Workshop on Applications of Computer Vision. Snowbird: IEEE, 2013:1-7.
参考文献 8
VoulodimosA, NikolaosD, AnastasiosD, et al. Deep learning for computer vision: A brief review[J]. Comput Intell Neurosci, 2018(14):1-13.
参考文献 9
卢宏涛, 张秦川. 深度卷积神经网络在计算机视觉中的应用研究综述[J]. 数据采集与处理, 2016, 31(1):1-17.
LuHongtao, ZhangQinchuan. Applications of deep convolutional neural network in computer vision[J].Journal of Data Acquisition and Processing, 2016, 31(1):1-17.
参考文献 10
DongZ, WuY, PeiM, et al. Vehicle type classification using a semisupervised convolutional neural network[J]. IEEE Transactions on Intelligent Transportation Systems, 2015, 16(4):2247-2256.
参考文献 11
YangL, LuoP, ChenC L, et al. A large-scale car dataset for fine-grained categorization and verification[C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015:3973-3981.
参考文献 12
FangJ, ZhouY, YuY, et al. Fine-Grained vehicle model recognition using a coarse-to-fine convolutional neural network architecture[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 18(7):1782-1792.
参考文献 13
WangJ, ZhengH, HuangY, et al. Vehicle type recognition in surveillance images from labeled web-nature data using deep transfer learning[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 19(9):2913-2922.
参考文献 14
YuS, WuY, LiW, et al. A model for fine-grained vehicle classification based on deep learning[J]. Neurocomputing, 2017, 257:97-103.
参考文献 15
雷倩, 郝存明, 张伟平. 基于超分辨率和深度神经网络的车型识别[J]. 计算机科学, 2018, 45(S1):230-233.
LeiQian, HaoCunming, ZhangWeiping. Vehicle recognition based on super-resolution and deep neural networks[J]. Computer Science, 2018, 45(S1):230-233.
参考文献 16
ArrospideJ, SalgadoL. Log-gabor filters for image-based vehicle verification[J]. IEEE Transactions on Image Processing a Publication of the IEEE Signal Processing Society, 2013, 22(6):2286-2295.
参考文献 17
ManzoorM A, MorganY. Vehicle make and model classification system using bag of SIFT features[C]// Proceedings of Annual Computing and Communication Workshop and Conference. Las Vegas: IEEE, 2017:1-5.
参考文献 18
LiorcaD F, ColasD, DazaI G, et al. Vehicle model recognition using geometry and appearance of car emblems from rear view images[C]// Proceedings of 17th International IEEE Conference on Intelligent Transportation Systems. Qingdao: IEEE, 2014:3094-3099.
参考文献 19
方菲菲, 余稳. 基于PCA-LDA-SVM的多普勒雷达车型识别算法[J]. 数据采集与处理, 2012, 27(1):111-116.
FangFeifei, YuWen. Vehicle recognition algorithm with doppler radar based on PCA-LDA-SVM[J].Journal of Data Acquisition and Processing, 2012, 27(1):111-116.
参考文献 20
HuaL, XuW, WangT, et al. Vehicle recognition using improved SIFT and multi-view model[J]. Journal of Xian Jiaotong University, 2013, 47(4):92-99.
参考文献 21
张彤, 张萍. 基于改进的Harris角点检测的车型识别方法[J]. 计算机科学, 2017, 44(S2):257-259.
ZhangTong, ZhangPing. Method of vehicle type recognition based on improved harris corner detection[J]. Computer Science, 2017, 44(S2):257-259.
参考文献 22
ChenC, LiuZ. Broad learning system: An effective and efficient incremental learning system without the need for deep architecture.[J]. IEEE Transactions on Neural Networks & Learning Systems, 2018, 29(1):10-24.
参考文献 23
HoerlA, KennardR. Ridge regression: Biased estimation for nonorthogonal problems[J]. Technometrics, 1970, 42(1):80-86.
参考文献 24
GoldsteinT, SetzerS. Fast alternating direction optimization methods[J]. SIAM Journal on Imaging Sciences, 2014, 7(3):225-231.
参考文献 25
DenizO, BuenoG, SalidoJ, et al. Face recognition using histograms of oriented gradients[J]. Pattern Recognition Letters, 2011, 32(12):1598-1603.
参考文献 26
IiasM E. Parameter selection for efficient HOG-based car detection[C]// Proceedings of 2017 IEEE 26th International Symposium on Industrial Electronics. Edinburgh: IEEE, 2017:1439-1444.
参考文献 27
DongZ, WuY, PeiM, et al. Vehicle type classification using unsupervised convolutional neural network[C]// Proceedings of International Conference on Pattern Recognition. Stockholm: IEEE, 2014:172-177.
参考文献 28
SantosD F S, SouzaG B D, MaranaA N. A 2D deep Boltzmann machine for robust and fast vehicle classification[C]// Proceedings of Sibgrapi Conference on Graphics, Patterns and Images. Niteroi: IEEE, 2017:155-162.
参考文献 29
BaiS, LiuZ, YaoC. Classify vehicles in traffic scene images with deformable part-based models[J]. Machine Vision & Applications, 2017, 29(3):1-11.
目录 contents

    摘要

    车辆车型识别技术在智能交通系统中至关重要,现有的车辆车型识别技术难以兼顾识别精度和识别速度。针对高速公路环境下的车型识别问题,提出了浅层特征层与宽度特征层相结合的分层式宽度模型实时进行车型识别。首先利用颜色空间转换和多通道HOG算法相结合,减少光照环境的影响,同时实现对车辆图像的特征提取,结合PCA降维技术,降低计算复杂度;然后对图像特征进行稀疏表示和非线性映射,减少图像特征之间的相关性;最后用岭回归学习算法对提取的样本特征进行训练,求出样本特征与样本标签之间的权重系数,实现对车辆车型的识别。在BIT-Vehicle车型数据库的实验结果表明,本文所提算法的识别精度为96.69%,识别速度高达70.3帧/s。本文算法在提高车型识别精度的同时保证了实时性,在识别精度和速度方面优于其他算法。

    Abstract

    Vehicle type recognition has become critical in intelligent transportation systems. The existing technology about vehicle type recognition is difficult to balance the recognition accuracy and recognition speed. Aiming at the problem of vehicle type recognition in the highway environment, a layered broad model combining the shallow feature layer with the broad feature layer is proposed, which can recognize the vehicle in real time. Firstly, the combination of color space conversion and multi-channel HOG algorithm is used to reduce the influence of illumination environment and realize the feature extraction of vehicle image. Combined with PCA dimension reduction technology, the computational complexity is reduced. Then sparse representation and nonlinear mapping of image features reduce correlation between image features. Finally, the ridge regression learning algorithm is used to train the extracted sample features, and the weight coefficient between the sample features and the sample tags is obtained to realize the recognition of the vehicle type. Experimental results on the BIT-Vehicle database show that the recognition accuracy of the proposed method is 96.69%, and the recognition speed is as high as 70.3 fps. The proposed algorithm can effectively enhance the feature expression ability and improve the vehicle type recognition accuracy, and ensure the real-time performance, which is superior to other algorithms in recognition accuracy and speed.

  • 引言

    近年来,随着交通监控设备的普及和计算机视觉的迅猛发展,一些基于交通视频图像的计算机视觉技术被应用在现代化智能交通体系中。实时的车型识别技术作为智能交通体系的重要组成部分,具有广泛的应用范围,如高速公路收费系统、交通流量统计、城市交通监控以及协助刑[1,2,3]等方面。目前车型识别领域的研究主要可以分为3类:(1)基于车辆三维模型的车型识别方[4,5,6,7]。该方法对不同类型的车辆进行三维建模 ,然后通过模型匹配的方式,实现车型识别,Voulodimos[8]建立每类车辆的三维模型,将待识别的车辆投影到模型空间,通过模型匹配的方式实现了87.5%的车型识别精度。(2)基于深度学[9,10,11,12,13,14]的车型识别方法。该方法先对车辆样本图像进行特征提取,然后用所获得的特征向量来训练网络分类器,利用训练好的分类器识别车辆类型,雷倩[15]采用具有13层的深度神经网络CaffeNet实现车型识别,识别精度高达95.2%,但需要使用GPU来加速网络训练。(3)基于车辆浅层特征的车型识别方[16,17,18,19,20]。该方法利用以先验知识所设计的特征提取器,提取车辆图像的固定化特征,如SIFT特征、Haaris角点特征以及梯度方向直方图(Histogram of oriented gradient, HOG)特征等,张彤[21]提出了改进的Harris角点检测的方法提取车辆图像的角点特征,采用角点匹配的方式实现了对5类车辆的类型识别,识别精度为90%。基于车辆三维模型的方法匹配原理简单,但建模过程复杂,鲁棒性较差,识别精度偏低;基于深度学习的方法具有较强的容错能力,识别精度较高,但该类方法需要大量的训练样本,运算复杂度高,网络训练耗时长,难以实现实时性效果;基于车辆浅层特征的方法因其固定的特征提取方式,特征提取速度相比于深度网络模型更快,但其识别精度偏低。

    为了解决目前车型识别的精度和实时性问题,本文提出了分层式宽度模型针对高速公路监控视频中的车辆图像进行分类。分层式宽度模型的特点在于分层式的特征提取方式使得模型特征表达能力强,提高了车型识别精度;轻量化的网络结构使得模型训练速度快,实现了车型识别实时性效果。

  • 1 相关工作

    1
  • 1.1 宽度学习系统

    1.1

    宽度学习系统(Broad learning system,BLS[22]是基于传统的随机向量函数链接神经网络(Random vector function-link neural network,RVFLNN)提出的,传统的RVFLNN直接使用输入数据,建立增强节点,然后求出输入与输出之间的权重系数矩阵;而BLS首先利用稀疏自编码方式将输入数据映射成稀疏化特征图,构造特征节点,优良的稀疏化特征图决定着宽度学习系统的性能表现;然后为了进一步减少特征相关性,利用特征节点生成增强节点;最后建立稀疏化特征图和增强节点与输出之间的关系,通过岭回归学习算[23]求出二者之间的权重系数矩阵。BLS的结构图如图1所示。BLS的具体构造过程如下。

    首先定义输入样本数据 X R N × M ,其中 X 共有 N 个样本,每个样本具有 M 维特征;然后按照式(1)生成特征图 Z i

    Z i = φ ( X W e i + β e i ) i = 1 , , n
    (1)

    式中: φ 为激活函数; W e i R M × k β e i R k 是随机生成的系数矩阵和偏值向量;其中 k 为特征点数量; Z i 为随机映射的特征图。为了减少特征提取的随机性,采用稀疏自编码方式训练完备字典 W e i 和偏值向量 β e i 。完备字典 W e i 和偏值向量 β e i 的训练过程如下:首先为了同时训练得到 W e i β e i ,将训练样本 X 随机扩充一列 X R N × ( M + 1 ) ,则对应的 W e i R ( M + 1 ) × k ,将偏值向量视为训练样本X的一列特征,然后将完备字典的训练过程等价于式(2)的最优化过程,即

    图1
                            BLS的结构示意图

    图1 BLS的结构示意图

    Fig.1 Schematic of BLS

    m i n W e i : Z i W e i - X 2 2 + λ W e i 1
    (2)

    为了得到最优解 W e i ,对式(2)变形,即

    m i n W e i : f ( W e i ) + g ( W e i )
    (3)

    式中 f ( W e i ) = Z i W e i - X 2 2 g ( W e i ) = λ W e i 1 。采用ADMM[24]迭代算法求出式(3)的最优解,根据该算法的表达形式,将式(3)重述为

    m i n W e i : f ( W e i ) + g ( O e i ) , s . t . W e i - O e i = 0
    (4)

    ADMM迭代算法的过程为

    W e i t + 1 = ( Z i T Z i + ρ I ) - 1 ( Z i T X + ρ ( O e i t - P t ) ) O e i t + 1 = S λ ρ ( W e i t + 1 + P t ) P t + 1 = P t + ( W e i t + 1 - O e i t + 1 )
    (5)

    式中: ρ > 0 S 是软阈值处理函数; O e i W e i 的对偶矩阵;P为主残差;t表示迭代次数; λ 为惩罚系数,如式(6)所示。

    S κ ( a ) = a - κ a > κ 0 a κ a + κ a < - κ
    (6)

    将训练得到的完备字典 W e i X 代入式(1),可得到稀疏化特征图 Z i ,有

    Z i = φ ( X W e i ) i = 1 , , n
    (7)

    其次定义 Z n [ Z 1 , , Z n ] 为前 n 个稀疏化特征图组,利用 Z n 生成 m 个增强节点有

    H j = ξ ( Z n W h j + β h j ) , j = 1 , , m
    (8)

    式中: W h j R n k × γ β h j R γ 分别为随机生成的正交规范矩阵和偏值向量,其中γ为增强原子,其目的在于将稀疏化特征图映射到正交空间上,进一步减少相邻特征之间的相关性; ξ 为非线性函数,如式(9)所示。

    ξ ( x ) = t a n s i g ( x s m a x ( x ) )
    (9)

    式中: s ( 0,1 ] 为收缩参数; t a n s i g ( ) 为激活函数,其表达式为

    t a n s i g ( x ) = 2 1 + e - 2 x - 1
    (10)

    并定义 H m [ H 1 , , H m ] m 个增强节点。

    最后定义输出 Y R N × C ,其中 C 表示类别,建立稀疏化特征图组和增强节点与输出之间的关系为

    a r g m i n W m : Q W m - Y 2 2 + λ W m 2 2
    (11)

    式中: Q = [ Z n | H m ] ;通过岭回归学习算法求出式(11)的最优权重系数矩阵 W m ,令式(11)等于 0 ,并对 W m 求导,结果为

    2 Q T ( Y - Q W m ) - 2 λ W m = 0
    (12)

    因此可求得

    W m = ( Q T Q + λ I ) - 1 Q T Y
    (13)

    式中 I 为单位矩阵,理论上当 λ = 0 时,最优解 W m = Q + Y ,其中 Q + Q 的伪逆,即有

    Q + = l i m λ 0 ( λ I + Q Q T ) - 1 Q T
    (14)

    因此权重系数矩阵 W m 表示为

    W m = l i m λ 0 ( λ I + Q Q T ) - 1 Q T Y
    (15)
  • 1.2 梯度方向直方图算法

    1.2

    HOG[25]是通过检测图像边缘方向的分布来提取目标物体的轮廓边缘特征。具体做法是将待提取特征的图像分成若干大小固定的区域,通过获得该区域图像像素梯度并进行特征计算来累加梯度特征,从而获得一定维数的梯度方向直方图。具体步骤如[26]

    (1) 灰度化处理彩色图像,HOG特征只对像素点的亮度值求梯度信息。

    (2) 为了调节图像对比度,减少光照不均匀以及噪声的影响,采用Gamma校正法对输入的图像进行归一化操作。

    (3) 为了捕获目标物体的轮廓信息,通过式(16)计算图像中各个像素点 ( x , y ) 的梯度大小 G ( x , y ) 和方向 D ( x , y )

    G ( x , y ) = G x ( x , y ) 2 + G y ( x , y ) 2 D ( x , y ) = a r c t a n [ G y ( x , y ) G x ( x , y ) ]
    (16)

    式中 G x ( x , y ) G y ( x , y ) 分别表示像素点在垂直坐标系 x 轴和 y 轴方向的梯度如式(17)所示。

    G x ( x , y ) = H ( x + 1 , y ) - H ( x - 1 , y ) G y ( x , y ) = H ( x , y + 1 ) - H ( x , y - 1 )
    (17)

    式中 H ( x , y ) 表示像素点 ( x , y ) 的亮度值。

    (4) 将图像区域分层划分,第1层是相互连通的Cell单元,各个Cell单元互不重叠,第2层是若干个Cell单元组成的Block区块。

    (5) 将360˚等分成若干个被称为Bin的方向块,检测各个Cell单元的梯度方向分布,并累加每个Cell单元的梯度幅度;然后归一化Block区块的对比度。

    (6) 将图像内所有Block区块的HOG特征串联起来,即得到了图像的HOG特征向量。

  • 2 分层式宽度模型

    2

    BLS因其轻量化的网络结构,所以在训练和测试速度上非常快,但在一些复杂场景下其识别精度偏低,为了实现车型识别的实时性和高精度效果,本文提出了分层式宽度模型,该模型包括输入层、浅层特征层、宽度特征层以及输出层,其中浅层特征层用于提取样本图像的浅层特征和降维操作;宽度特征层用于训练完备字典和正交规范矩阵,实现样本特征的稀疏化表示和非线性映射;建立输出层与样本特征之间的关系,求出权重系数。分层式宽度模型如图2所示。

    图2
                            分层式宽度模型示意图

    图2 分层式宽度模型示意图

    Fig.2 Schematic diagram of layered broad model

  • 2.1 浅层特征层

    2.1

    浅层特征层作为分层式宽度模型特征处理的首要环节,主要包括样本图像的颜色空间转换、多通道HOG特征提取以及降维操作。

  • 2.1.1 颜色空间转换

    2.1.1

    RGB颜色空间是彩色图像最常用的颜色空间,该颜色空间的3个通道都包含亮度信息,因此3个通道都会受到光照影响。相比于RGB颜色空间,HSV,HSI以及YCbCr等颜色空间下的图像亮度信息和色度信息相互独立,不同的光照环境只影响图像的亮度信息,而通过色度信息也能够反映图像属性。由于HSV和HSI颜色空间模型较为复杂,与RGB颜色空间的转换是非线性的,而YCbCr颜色空间模型简单,且与RGB颜色空间的转换关系是线性的,如式(18)所示。考虑到训练所用的数据集中包含不同光照环境下所采集的车辆图像,因此将原始的RGB图像转换到YCbCr颜色空间,减少光照影响。首先将输入层的彩色样本图像尺寸设定为 80 × 60 ;然后通过式(18),实现颜色空间转换。

    Y ( x , y ) C b ( x , y ) C r ( x , y ) = 0.256 8 0.504 1 0.097 9 - 0.148 2 - 0.291 0 0.439 2 0.439 2 - 0.367 8 - 0.071 4 R ( x , y ) G ( x , y ) B ( x , y ) + 16 128 128
    (18)

    式中: Y ( x , y ) , C b ( x , y ) , C r ( x , y ) 分别表示YCbCr颜色空间下3个颜色通道的像素值; R ( x , y ) , G ( x , y ) , B ( x , y ) 分别表示RGB颜色空间下3个颜色通道的像素值。经过颜色空间转换后样本特征为 X Y C b C r R N × M ,其中 N 为彩色样本图像的数量, M 为每个样本的特征维度大小。

    3和图4分别表示RGB和YCbCr颜色空间下的3通道图像。由于YCbCr颜色空间的Y通道、Cb通道和Cr通道分别表示亮度信息、蓝色分量和红色分量,因此不同通道反映图像的不同特征属性;而RGB颜色空间的3个通道由于亮度和色度信息没有分离,3个通道图之间具有很大的相似性。

    图3
                            RGB颜色空间的3通道图

    图3 RGB颜色空间的3通道图

    Fig.3 Three-channel maps of RGB color space

    图4
                            YCbCr颜色空间的3通道图

    图4 YCbCr颜色空间的3通道图

    Fig.4 Three-channel maps of YCbCr color space

  • 2.1.2 多通道HOG特征

    2.1.2

    通常HOG特征是在灰度图像上提取的,灰度图像只包含亮度信息,容易受到光照环境的影响,而通过颜色空间转换后,图像的亮度信息和色度信息相互独立,为了减少光照环境的影响同时提高特征多样性,提出了多通道HOG特征提取算法,按照1.2节所述的HOG特征提取流程(2)—(6)分别提取YCbCr颜色空间下3个颜色通道的HOG特征,其中设置Cell单元的尺寸 S i z e = 10 ,步长 S t r i d e = 10 2 × 2 个Cell单元组成的Block区块,设置Bin方向块 l = 18 ,因此在一张 80 × 60 分辨率图像上进行区域划分,水平方向和垂直方向分别得到7个和5个Block区块。

    最后每张彩色图像能够得到 7 × 5 × 72 × 3 = 7 560 维的HOG特征向量, X Y C b C r 经过多通道HOG特征提取后样本特征为 X H R N × M 1 M 1 表示特征提取后的特征维度。

  • 2.1.3 降维

    2.1.3

    经过多通道HOG特征提取后,样本特征维度较高,影响车型识别算法的速度,通过主成分分析(Principal component analysis,PCA)算法不仅实现了样本特征 X H 的降维效果,同时减少了噪声和冗余信息的影响。

    首先通过式(19)计算所有样本特征 X H 的协方差矩阵 C o v R M 1 × M 1 ;然后通过奇异值分解方式,对协方差矩阵进行分解,如式(20);然后设定贡献率,通过式(21)选定特征值向量矩阵Σ的前 p 个特征值;最后将前 p 个特征值所对应的特征向量构成降维矩阵 V p ,通过式(22)实现降维目的。

    C o v = 1 N n = 1 N ( x i - x ¯ H ) ( x i - x ¯ H ) T
    (19)
    C o v = V Σ D
    (20)
    i = 1 M 2 δ i i = 1 M 1 δ i η
    (21)
    U = ( X H - x ¯ H ) V p
    (22)

    式中: x ¯ H 表示特征均值, x ¯ H = 1 N i = 1 N x i x i R M 1 为第 i 个样本特征向量; C o v 的所有特征值构成了对角阵 Σ R V R M 1 × M 1 C o v 所有特征值所对应的特征向量, D R M 1 × M 1 表示原始域的标准正交基矩阵; δ i C o v 的特征值, M 2 为降维后的特征维度; U R N × M 2 为降维后的样本特征。

  • 2.2 宽度特征层

    2.2

    宽度特征层用于对浅层特征层输出的样本特征进行二次特征处理,主要包括样本特征稀疏化和非线性映射等操作。特征稀疏化是指通过训练完备字典将样本特征稀疏化表示,减少特征之间的相关性;非线性映射是指利用正交规范矩阵,将稀疏化特征非线性映射到正交空间上,进一步减少相邻特征之间的相关性,提高模型的特征表达能力。

  • 2.2.1 特征稀疏化

    2.2.1

    首先训练完备字典将浅层特征层的输出样本特征 U 稀疏化表示,按照式(2)将完备字典训练过程等价为最优化求解过程,即有

    m i n W e i : Z i W e i - U 2 2 + λ W e i 1
    (23)

    式中: Z i 为第i个随机特征图; W e i R M 2 × k 表示待训练的第 i 个完备字典, i = 1 , , n k 为特征点数量。通过式(4—6)所述的ADMM迭代算法,可以得到完备字典 W e i ,因此按照式(7)将得到的完备字典 W e i U 映射生成 Z i R N × k ,有

    Z i = φ ( U W e i )
    (24)

    式中激活函数 φ 为归一化函数,有

    φ ( x ) = ( x - m i n ( x ) ) / ( m a x ( x ) - m i n ( x ) )
    (25)

    式中 x 表示向量, x 表示向量中的元素;并定义 Z n = [ φ ( U W e 1 ) , , φ ( U W e n ) ] n 个稀疏化特征图组。

  • 2.2.2 非线性映射

    2.2.2

    为了进一步减少相邻特征之间的相关性,构造正交规范矩阵,将稀疏化特征非线性映射到正交空间上,提高模型的特征表达能力。首先随机生成一定大小的正交规范矩阵 W h j ,其中正交规范矩阵 W h j 包含了偏置向量 β h j ;然后根据式(9)的非线性映射关系, W h j Z n 可以映射生成增强节点 H j ,有

    H j = ξ ( Z n W h j ) = t a n s i g ( Z n W h j s m a x ( Z n W h j ) ) j = 1 , , m
    (26)

    式中 s ( 0,1 ] 为收缩参数。因此 Z n 通过非线性映射生成 H m 定义为

    H m = [ ξ ( Z n W h 1 ) , , ξ ( Z n W h m ) ]
    (27)
  • 2.3 生成权重系数矩阵

    2.3

    定义 Y 为输出样本标签矩阵,因此可以建立 [ Z n | H m ] Y 之间的关系,有

    Y = [ Z n | H m ] W
    (28)

    式中 W 为稀疏化特征图和增强节点与输出之间的权重系数矩阵,有

    W = [ Z n | H m ] + Y
    (29)

    式中 [ Z n | H m ] + [ Z n | H m ] 的伪逆,通过式(14)可以求得伪逆 [ Z n | H m ] + ,有

    [ Z n | H m ] + = l i m λ 0 ( λ I + [ Z n | H m ] [ Z n | H m ] T ) - 1 [ Z n | H m ] T
    (30)

    因此权重系数矩阵 W

    W = l i m λ 0 ( λ I + [ Z n | H m ] [ Z n | H m ] T ) - 1 [ Z n | H m ] T Y
    (31)
  • 2.4 本文算法流程

    2.4

    本文算法流程如下。

    输入:训练样本;

    输出:样本标签;

    X 通过式(18)颜色空间转换得到 X Y C b C r R N × M

    • 根据2.1.2节的多通道HOG特征提取算法,提取 X Y C b C r 的HOG特征得到 X H R N × M 1

    • 由式(19-22)对 X H 进行PCA降维操作,得到 U R N × M 2

    • 设定 n 个稀疏化特征图和 m 个增强节点。

    每个稀疏化特征图提取过程如下:

    (1) 随机生成 W e i β e i

    (2) 通过式(23)训练生成完备字典 W e i

    (3) 根据式(24)得到稀疏化特征图 Z i

    重复 n 次步骤(1—3),并定义 Z n = [ Z 1 , , Z n ] n 个稀疏化特征图组。

    每个增强节点的生成过程如下:

    (4) 随机生成 W h j β h j

    (5) 通过式(26)生成增强节点 H j

    重复 m 次步骤(4,5),并定义 H m = [ H 1 , , H m ] m 个增强节点;

    • 通过式(28)建立 [ Z n | H m ] 与样本标签矩阵 Y 的关系;

    • 根据式(31)计算出权重系数矩阵 W

  • 3 实验结果与分析

    3

    实验在Core i7-6800K CPU,频率为3.40 GHz,16 GB RAM的Windows10系统计算机上运行,运行环境为MATLAB2016b 64位。采用识别精度和识别速度,单位为帧/s来衡量算法性能。

  • 3.1 BIT-Vehicle数据集与实验分析

    3.1

    BIT-Vehicle数据[27]是在高速公路摄像头上采集的分辨率为 1 920 × 1 080 1 600 × 1 200 的车辆前脸图像,共9 850张图像,其中约有10%的夜间图像,另外还有许多光照环境、车辆表面颜色变化的图像,如图5所示。该数据库中的所有车型分为6类,分别是Bus,Minivan,Microbus,Truck,Sedan和SUV,对应每类车辆数量分别为558,476,862,823,5 769和1 362。图6为数据库中6类车辆的示意图。

    图5
                            复杂环境下的车辆图像

    图5 复杂环境下的车辆图像

    Fig.5 Vehicle images in complex environment

    图6
                            样本图像示意图

    图6 样本图像示意图

    Fig.6 Sample image schematic

    分层式宽度模型的浅层特征层参数设置Cell单元的尺寸 S i z e = 10 ,步长 S t r i d e = 10 ,每个Block区块由 2 × 2 个Cell单元组成,Bin方向块 l = 18 ;宽度特征层参数设置 n = 20 , k = 100 , m = 800 , s = 0.8 。实验结果表明本文所提算法的识别精度为96.69%,识别速度为70.3帧/s,达到了实时性效果。车型识别精度混淆矩阵图,如图7所示。

    由图7可知,Microbus和Minivan容易和其他多种车型混淆,其中Microbus与Minivan之间最易产生误判,一方面是因为这两类车型前脸图像之间有很大的相似性,另一方面是由于部分Minivan存在载货现象,如图8所示。

    图7
                            车型识别精度混淆矩阵图

    图7 车型识别精度混淆矩阵图

    Fig.7 Confusion matrix of vehicle type recognition accuracy

    图8
                            相似车辆的前脸图

    图8 相似车辆的前脸图

    Fig.8 Front face of similar vehicles

  • 3.2 浅层特征层影响实验

    3.2
  • 3.2.1 浅层特征层中各特征处理环节实验

    3.2.1

    为了进一步说明浅层特征层中各个特征处理环节的重要性,针对特征处理环节的不同组合,作了以下3组实验,实验结果如表1所示。由表1可知,多通道HOG特征+PCA降维+BLS算法与所提算法的对比实验说明YCbCr颜色空间下图像的亮度信息和色度信息相互分离,光照环境只影响亮度信息,而色度信息也能反映图像的特征属性,通过颜色空间转换能有效地减少光照环境的影响;颜色空间转换+PCA降维+BLS算法与所提算法的对比实验表明多通道HOG特征具有较强的车辆前脸特征表达能力,主要因为基于图像边缘梯度的HOG特征能够有效地描述不同类型车辆的前脸特征,此外多通道的特征提取方式保留了特征多样性,是浅层特征层中的关键环节;颜色空间转换+多通道HOG特征+BLS算法与所提算法对比实验证明了特征提取后的PCA降维操作有效地减少了图像噪声干扰。

    表1 浅层特征层中各特征处理环节的实验对比

    Tab.1 Experimental comparison of various feature processing links in shallow feature layer

    实验算法识别精度/%
    颜色空间转换+多通道HOG特征+BLS92.15
    颜色空间转换+PCA降维+BLS87.16
    多通道HOG特征+PCA降维+BLS93.60
    本文所提算法96.69
    表1
                    浅层特征层中各特征处理环节的实验对比
  • 3.2.2 多通道与单通道HOG特征实验

    3.2.2

    为了验证多通道HOG特征提取的合理性,作了3组对比性实验,只改变HOG特征提取的颜色通道,实验结果如表2所示。由表2可知,多通道HOG特征的组合方式优于单通道HOG特征。其中Y通道下的HOG特征对车型识别精度的贡献比其他通道更大,主要是因为Y通道反映的是图像亮度信息,包含丰富的边缘纹理特征,而HOG特征描述算子对图像边缘梯度变化较大的区域较为敏感。

    表2 多通道与单通道HOG特征实验对比

    Tab.2 Comparison of multi-channel and single-channel HOG feature experiments

    实验算法识别精度/%
    颜色空间转换+Y通道特征+PCA降维+BLS95.23
    颜色空间转换+Cb通道特征+PCA降维+BLS90.54
    颜色空间转换+Cr通道特征+PCA降维+BLS91.53
    本文所提算法96.69
    表2
                    多通道与单通道HOG特征实验对比
  • 3.3 不同识别算法的对比实验

    3.3

    为了说明本文所提算法在车型识别方面的优越性,对比了其他算法在BIT-Vehicle数据集上的测试结果,如表3所示。

    表3 不同识别算法的实验对比

    Tab.3 Experimental comparison of different recognition algorithms

    车型识别算法识别精度/%识别速度/(帧·s-1)
    无监督的CNN算[27]92.893.2
    深度玻尔兹曼机算[28]77.20 ± 2.807.6
    基于可形变模型算[29]91.0810.4
    BLS[22]89.23356.3
    本文所提算法96.6970.3
    表3
                    不同识别算法的实验对比

    由表3可知,本文所提算法的识别精度和识别速度优于其他算法如无监督的CNN算[27]、深度玻尔兹曼机算[28]以及基于可形变模型算[29]。另外通过对比BLS算法与所提算法可知,所提算法的识别精度高于BLS算法,主要因为浅层特征层中特征处理环节不仅减少了光照等噪声的影响而且还提取了车辆前脸的关键性特征,具有较强的特征表达能力,同时由于浅层特征层特征处理环节消耗了部分时间,因此所提算法的识别速度比BLS算法慢,但所提算法已经达到了实时性要求。

  • 4 结束语

    4

    本文提出的分层式宽度模型能够实现车辆类型识别效果,具有识别精度高、识别速度快等优点。浅层特征层中通过将颜色空间转换与多通道HOG算法相结合,有效地减少了光照环境影响的同时,提取了车辆前脸图像的关键性特征;宽度特征层通过训练完备字典和生成正交规范矩阵,实现样本特征稀疏化表示和非线性映射,减少了图像特征相关性;最后直接求出样本特征与输出样本标签之间的权重系数矩阵,实现车型识别。轻量化的网络结构和分层式的特征提取方式兼顾了车型识别的识别速度和精度。下一步将针对多目标的车型识别以及遮挡等问题进行研究,使算法模型的泛化能力更强。

  • 参考文献

    • 1

      Zhang F, Wilkie D, Zheng Y, et al. Sensing the pulse of urban refueling behavior[C]// Proceedings of the 2013 ACM International Joint Conference on Pervasive and Ubiquitous Computing. New York: ACM, 2013:13-22.

    • 2

      Datondji S R E, Dupuis Y, Subirats P, et al. A survey of vision-based traffic monitoring of road intersections[J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(10):2681-2698.

    • 3

      Ambardekar A, Nicolescu M, Bebis G, et al. Vehicle classification framework: A comparative study[J]. Eurasip Journal on Image & Video Processing, 2014, 29(1):1-13.

    • 4

      Zhang Z, Tan T, Huang K, et al.Three-dimensional deformable-model[J]. IEEE Transactions on Image Processing a Publication of the IEEE Signal Processing Society, 2012, 21(1):1-13.

    • 5

      Wei W, Zhang Q, Wang M. A method of vehicle classification using models and neural networks[C]// Proceedings of IEEE VTS 53rd Vehicular Technology Conference, Spring 2001. Greece: IEEE, 2001:3022-3026.

    • 6

      Lai A H S, Fung G S K, Yung N H C. Vehicle type classification from visual-based dimension estimation[C]// Proceedings of Intelligent Transportation Systems. Oakland: IEEE, 2002:201-206.

    • 7

      Prokaj J, Mediono G. 3-D model based vehicle recognition[C]// Proceedings of Workshop on Applications of Computer Vision. Snowbird: IEEE, 2013:1-7.

    • 8

      Voulodimos A, Nikolaos D, Anastasios D, et al. Deep learning for computer vision: A brief review[J]. Comput Intell Neurosci, 2018(14):1-13.

    • 9

      卢宏涛, 张秦川. 深度卷积神经网络在计算机视觉中的应用研究综述[J]. 数据采集与处理, 2016, 31(1):1-17.

      Lu Hongtao, Zhang Qinchuan. Applications of deep convolutional neural network in computer vision[J].Journal of Data Acquisition and Processing, 2016, 31(1):1-17.

    • 10

      Dong Z, Wu Y, Pei M, et al. Vehicle type classification using a semisupervised convolutional neural network[J]. IEEE Transactions on Intelligent Transportation Systems, 2015, 16(4):2247-2256.

    • 11

      Yang L, Luo P, Chen C L, et al. A large-scale car dataset for fine-grained categorization and verification[C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015:3973-3981.

    • 12

      Fang J, Zhou Y, Yu Y, et al. Fine-Grained vehicle model recognition using a coarse-to-fine convolutional neural network architecture[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 18(7):1782-1792.

    • 13

      Wang J, Zheng H, Huang Y, et al. Vehicle type recognition in surveillance images from labeled web-nature data using deep transfer learning[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 19(9):2913-2922.

    • 14

      Yu S, Wu Y, Li W, et al. A model for fine-grained vehicle classification based on deep learning[J]. Neurocomputing, 2017, 257:97-103.

    • 15

      雷倩, 郝存明, 张伟平. 基于超分辨率和深度神经网络的车型识别[J]. 计算机科学, 2018, 45(S1):230-233.

      Lei Qian, Hao Cunming, Zhang Weiping. Vehicle recognition based on super-resolution and deep neural networks[J]. Computer Science, 2018, 45(S1):230-233.

    • 16

      Arrospide J, Salgado L. Log-gabor filters for image-based vehicle verification[J]. IEEE Transactions on Image Processing a Publication of the IEEE Signal Processing Society, 2013, 22(6):2286-2295.

    • 17

      Manzoor M A, Morgan Y. Vehicle make and model classification system using bag of SIFT features[C]// Proceedings of Annual Computing and Communication Workshop and Conference. Las Vegas: IEEE, 2017:1-5.

    • 18

      Liorca D F, Colas D, Daza I G, et al. Vehicle model recognition using geometry and appearance of car emblems from rear view images[C]// Proceedings of 17th International IEEE Conference on Intelligent Transportation Systems. Qingdao: IEEE, 2014:3094-3099.

    • 19

      方菲菲, 余稳. 基于PCA-LDA-SVM的多普勒雷达车型识别算法[J]. 数据采集与处理, 2012, 27(1):111-116.

      Fang Feifei, Yu Wen. Vehicle recognition algorithm with doppler radar based on PCA-LDA-SVM[J].Journal of Data Acquisition and Processing, 2012, 27(1):111-116.

    • 20

      Hua L, Xu W, Wang T, et al. Vehicle recognition using improved SIFT and multi-view model[J]. Journal of Xian Jiaotong University, 2013, 47(4):92-99.

    • 21

      张彤, 张萍. 基于改进的Harris角点检测的车型识别方法[J]. 计算机科学, 2017, 44(S2):257-259.

      Zhang Tong, Zhang Ping. Method of vehicle type recognition based on improved harris corner detection[J]. Computer Science, 2017, 44(S2):257-259.

    • 22

      Chen C, Liu Z. Broad learning system: An effective and efficient incremental learning system without the need for deep architecture.[J]. IEEE Transactions on Neural Networks & Learning Systems, 2018, 29(1):10-24.

    • 23

      Hoerl A, Kennard R. Ridge regression: Biased estimation for nonorthogonal problems[J]. Technometrics, 1970, 42(1):80-86.

    • 24

      Goldstein T, Setzer S. Fast alternating direction optimization methods[J]. SIAM Journal on Imaging Sciences, 2014, 7(3):225-231.

    • 25

      Deniz O, Bueno G, Salido J, et al. Face recognition using histograms of oriented gradients[J]. Pattern Recognition Letters, 2011, 32(12):1598-1603.

    • 26

      Iias M E. Parameter selection for efficient HOG-based car detection[C]// Proceedings of 2017 IEEE 26th International Symposium on Industrial Electronics. Edinburgh: IEEE, 2017:1439-1444.

    • 27

      Dong Z, Wu Y, Pei M, et al. Vehicle type classification using unsupervised convolutional neural network[C]// Proceedings of International Conference on Pattern Recognition. Stockholm: IEEE, 2014:172-177.

    • 28

      Santos D F S, Souza G B D, Marana A N. A 2D deep Boltzmann machine for robust and fast vehicle classification[C]// Proceedings of Sibgrapi Conference on Graphics, Patterns and Images. Niteroi: IEEE, 2017:155-162.

    • 29

      Bai S, Liu Z, Yao C. Classify vehicles in traffic scene images with deformable part-based models[J]. Machine Vision & Applications, 2017, 29(3):1-11.

李洪均

机 构:

1. 南通大学电子信息学院,南通,226019

2. 南通智能信息技术联合研究中心,南通, 226019

3. 通科微电子学院,南通,226019

Affiliation:

1. School of Electronic Information, Nantong University, Nantong, 226019, China

2. Nantong Research Institute for Advanced Communication Technologies, Nantong, 226019, China

3. Tongke School of Microelectronics, Nantong, 226019, China

作者简介:

李洪均(1981-),男,博士,副教授,研究方向:人工智能、模式识别、机器学习以及图像处理,E-mail:lihongjun@ntu.edu.cn。

周泽

机 构:南通大学电子信息学院,南通,226019

Affiliation:School of Electronic Information, Nantong University, Nantong, 226019, China

作者简介:
作者简介:

周泽(1995-),男,硕士研究生,研究方向:图像处理与模式识别。

刘彦东

角 色:中文编辑

Role:Editor

html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F001.jpg
html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F002.jpg
html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F003.jpg
html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F004.jpg
html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F005.jpg
html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F006.jpg
html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F007.jpg
html/sjcjycl/201901009/alternativeImage/6ea770ea-2eaa-4345-bdf7-6f51e0e92353-F008.jpg
实验算法识别精度/%
颜色空间转换+多通道HOG特征+BLS92.15
颜色空间转换+PCA降维+BLS87.16
多通道HOG特征+PCA降维+BLS93.60
本文所提算法96.69
实验算法识别精度/%
颜色空间转换+Y通道特征+PCA降维+BLS95.23
颜色空间转换+Cb通道特征+PCA降维+BLS90.54
颜色空间转换+Cr通道特征+PCA降维+BLS91.53
本文所提算法96.69
车型识别算法识别精度/%识别速度/(帧·s-1)
无监督的CNN算[27]92.893.2
深度玻尔兹曼机算[28]77.20 ± 2.807.6
基于可形变模型算[29]91.0810.4
BLS[22]89.23356.3
本文所提算法96.6970.3

图1 BLS的结构示意图

Fig.1 Schematic of BLS

图2 分层式宽度模型示意图

Fig.2 Schematic diagram of layered broad model

图3 RGB颜色空间的3通道图

Fig.3 Three-channel maps of RGB color space

图4 YCbCr颜色空间的3通道图

Fig.4 Three-channel maps of YCbCr color space

图5 复杂环境下的车辆图像

Fig.5 Vehicle images in complex environment

图6 样本图像示意图

Fig.6 Sample image schematic

图7 车型识别精度混淆矩阵图

Fig.7 Confusion matrix of vehicle type recognition accuracy

图8 相似车辆的前脸图

Fig.8 Front face of similar vehicles

表1 浅层特征层中各特征处理环节的实验对比

Tab.1 Experimental comparison of various feature processing links in shallow feature layer

表2 多通道与单通道HOG特征实验对比

Tab.2 Comparison of multi-channel and single-channel HOG feature experiments

表3 不同识别算法的实验对比

Tab.3 Experimental comparison of different recognition algorithms

image /

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

无注解

  • 参考文献

    • 1

      Zhang F, Wilkie D, Zheng Y, et al. Sensing the pulse of urban refueling behavior[C]// Proceedings of the 2013 ACM International Joint Conference on Pervasive and Ubiquitous Computing. New York: ACM, 2013:13-22.

    • 2

      Datondji S R E, Dupuis Y, Subirats P, et al. A survey of vision-based traffic monitoring of road intersections[J]. IEEE Transactions on Intelligent Transportation Systems, 2016, 17(10):2681-2698.

    • 3

      Ambardekar A, Nicolescu M, Bebis G, et al. Vehicle classification framework: A comparative study[J]. Eurasip Journal on Image & Video Processing, 2014, 29(1):1-13.

    • 4

      Zhang Z, Tan T, Huang K, et al.Three-dimensional deformable-model[J]. IEEE Transactions on Image Processing a Publication of the IEEE Signal Processing Society, 2012, 21(1):1-13.

    • 5

      Wei W, Zhang Q, Wang M. A method of vehicle classification using models and neural networks[C]// Proceedings of IEEE VTS 53rd Vehicular Technology Conference, Spring 2001. Greece: IEEE, 2001:3022-3026.

    • 6

      Lai A H S, Fung G S K, Yung N H C. Vehicle type classification from visual-based dimension estimation[C]// Proceedings of Intelligent Transportation Systems. Oakland: IEEE, 2002:201-206.

    • 7

      Prokaj J, Mediono G. 3-D model based vehicle recognition[C]// Proceedings of Workshop on Applications of Computer Vision. Snowbird: IEEE, 2013:1-7.

    • 8

      Voulodimos A, Nikolaos D, Anastasios D, et al. Deep learning for computer vision: A brief review[J]. Comput Intell Neurosci, 2018(14):1-13.

    • 9

      卢宏涛, 张秦川. 深度卷积神经网络在计算机视觉中的应用研究综述[J]. 数据采集与处理, 2016, 31(1):1-17.

      Lu Hongtao, Zhang Qinchuan. Applications of deep convolutional neural network in computer vision[J].Journal of Data Acquisition and Processing, 2016, 31(1):1-17.

    • 10

      Dong Z, Wu Y, Pei M, et al. Vehicle type classification using a semisupervised convolutional neural network[J]. IEEE Transactions on Intelligent Transportation Systems, 2015, 16(4):2247-2256.

    • 11

      Yang L, Luo P, Chen C L, et al. A large-scale car dataset for fine-grained categorization and verification[C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015:3973-3981.

    • 12

      Fang J, Zhou Y, Yu Y, et al. Fine-Grained vehicle model recognition using a coarse-to-fine convolutional neural network architecture[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 18(7):1782-1792.

    • 13

      Wang J, Zheng H, Huang Y, et al. Vehicle type recognition in surveillance images from labeled web-nature data using deep transfer learning[J]. IEEE Transactions on Intelligent Transportation Systems, 2017, 19(9):2913-2922.

    • 14

      Yu S, Wu Y, Li W, et al. A model for fine-grained vehicle classification based on deep learning[J]. Neurocomputing, 2017, 257:97-103.

    • 15

      雷倩, 郝存明, 张伟平. 基于超分辨率和深度神经网络的车型识别[J]. 计算机科学, 2018, 45(S1):230-233.

      Lei Qian, Hao Cunming, Zhang Weiping. Vehicle recognition based on super-resolution and deep neural networks[J]. Computer Science, 2018, 45(S1):230-233.

    • 16

      Arrospide J, Salgado L. Log-gabor filters for image-based vehicle verification[J]. IEEE Transactions on Image Processing a Publication of the IEEE Signal Processing Society, 2013, 22(6):2286-2295.

    • 17

      Manzoor M A, Morgan Y. Vehicle make and model classification system using bag of SIFT features[C]// Proceedings of Annual Computing and Communication Workshop and Conference. Las Vegas: IEEE, 2017:1-5.

    • 18

      Liorca D F, Colas D, Daza I G, et al. Vehicle model recognition using geometry and appearance of car emblems from rear view images[C]// Proceedings of 17th International IEEE Conference on Intelligent Transportation Systems. Qingdao: IEEE, 2014:3094-3099.

    • 19

      方菲菲, 余稳. 基于PCA-LDA-SVM的多普勒雷达车型识别算法[J]. 数据采集与处理, 2012, 27(1):111-116.

      Fang Feifei, Yu Wen. Vehicle recognition algorithm with doppler radar based on PCA-LDA-SVM[J].Journal of Data Acquisition and Processing, 2012, 27(1):111-116.

    • 20

      Hua L, Xu W, Wang T, et al. Vehicle recognition using improved SIFT and multi-view model[J]. Journal of Xian Jiaotong University, 2013, 47(4):92-99.

    • 21

      张彤, 张萍. 基于改进的Harris角点检测的车型识别方法[J]. 计算机科学, 2017, 44(S2):257-259.

      Zhang Tong, Zhang Ping. Method of vehicle type recognition based on improved harris corner detection[J]. Computer Science, 2017, 44(S2):257-259.

    • 22

      Chen C, Liu Z. Broad learning system: An effective and efficient incremental learning system without the need for deep architecture.[J]. IEEE Transactions on Neural Networks & Learning Systems, 2018, 29(1):10-24.

    • 23

      Hoerl A, Kennard R. Ridge regression: Biased estimation for nonorthogonal problems[J]. Technometrics, 1970, 42(1):80-86.

    • 24

      Goldstein T, Setzer S. Fast alternating direction optimization methods[J]. SIAM Journal on Imaging Sciences, 2014, 7(3):225-231.

    • 25

      Deniz O, Bueno G, Salido J, et al. Face recognition using histograms of oriented gradients[J]. Pattern Recognition Letters, 2011, 32(12):1598-1603.

    • 26

      Iias M E. Parameter selection for efficient HOG-based car detection[C]// Proceedings of 2017 IEEE 26th International Symposium on Industrial Electronics. Edinburgh: IEEE, 2017:1439-1444.

    • 27

      Dong Z, Wu Y, Pei M, et al. Vehicle type classification using unsupervised convolutional neural network[C]// Proceedings of International Conference on Pattern Recognition. Stockholm: IEEE, 2014:172-177.

    • 28

      Santos D F S, Souza G B D, Marana A N. A 2D deep Boltzmann machine for robust and fast vehicle classification[C]// Proceedings of Sibgrapi Conference on Graphics, Patterns and Images. Niteroi: IEEE, 2017:155-162.

    • 29

      Bai S, Liu Z, Yao C. Classify vehicles in traffic scene images with deformable part-based models[J]. Machine Vision & Applications, 2017, 29(3):1-11.