[1]
LIU X C, LIU W, MA H D, et al. Large-scale vehicle re-identification in urban surveillance videos [C]// IEEE International Conference on Multimedia and Expo . Seattle: IEEE, 2016: 1-6.
[本文引用: 3]
[2]
LIU X C. A deep learning-based approach to progressive vehicle re-identification for urban surveillance [C]// 2016 European Conference on Computer Vision . Netherlands: Springer, 2016: 869-884.
[本文引用: 3]
[3]
ZHANG Y, LIU D, ZHA Z J. Improving triplet-wise training of convolutional neural network for vehicle re-identification [C]// 2017 IEEE International Conference on Multimedia and Expo . Hongkong: IEEE, 2017: 1386-1391.
[本文引用: 1]
[4]
ZHOU K Y, YANG Y X, CAVALLARO A, et al. Omni-scale feature learning for person re-identification [C]// 2019 International Conference of Computer Vision . Seoul: IEEE, 2019: 3701-3711.
[本文引用: 2]
[5]
HE K M, ZHANG X Y. Deep residual learning for image recognition [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition . Nevada: IEEE, 2016: 770-778.
[本文引用: 1]
[6]
BAI Y, LOU Y H, GAO F, et al Group-sensitive triplet embedding for vehicle re-identification
[J]. IEEE Transactions on Multimedia , 2018 , 2385 - 2399
URL
[本文引用: 7]
[7]
SIMONYAN K, ZISSERME N. Very deep convolutional networks for largescale image recognition [C]// 2015 International Conference on Learning Representations . San Diego: IEEE, 2015: 1-14.
[本文引用: 1]
[8]
CHU R H, SUN Y F. Vehicle re-identification with viewpoint-aware metric learning [C]// 2019 International Conference of Computer Vision . Seoul: IEEE, 2019: 8281-8290.
[本文引用: 5]
[9]
PIRAZ K. A dual-path model with adaptive attention for vehicle re-identification [C]// 2019 International Conference of Computer Vision . Seoul: IEEE, 2019: 6131-6140.
[本文引用: 5]
[10]
HE B. Part-regularized near-duplicate vehicle re-identification [C]// 2019 International Conference of Computer Vision and Pattern Recognition . Long Beach: IEEE, 2019: 3992-4000.
[本文引用: 5]
[11]
ZHU J Q Vehicle re-identification using quadruple directional deep learning features
[J]. IEEE Transactions on Intelligent Transportation System , 2019 , 21 (1 ): 410 - 420
URL
[本文引用: 5]
[12]
GUO H, ZHAO C. Learning coarse-to-fine structured feature embedding for vehicle re-identification [C]// 2018 the 32nd AAAI Conference on Artificial Intelligence . New Orleans: AAAI, 2018: 6853-6860.
[本文引用: 1]
[13]
ZHENG Z, ZHENG L, YANG Y A discriminatively learned cnn embedding for personre-identification
[J]. ACM Transactions on Multime-dia Computing, Communications, and Applications , 2017 , 14 (1 ): 1 - 20
[14]
LIU X, LIU W Provid: progressive and multimodal vehicle reidentification for large-scale urban surveillance
[J]. IEEE Transactions on Multimedia , 2018 , 20 (3 ): 645 - 658
DOI:10.1109/TMM.2017.2751966
[本文引用: 1]
[15]
YU R, DOU Z, BAI S Hard-aware point-to-set deep metric for person re-identification
[J]. Lecture Notes in Computer Science , 2018 , 196 - 212
URL
[本文引用: 2]
[16]
CORTES C, VAPNIK V Support-vector networks
[J]. Machine Learning , 1995 , 20 (3 ): 273 - 297
[本文引用: 1]
[17]
ZHONG Z, ZHENG L. Re-ranking person re-identification with k-reciprocal encoding [C]// 2017 International Conference of Computer Vision and Pattern Recognition . Honolulu: IEEE, 2019: 3652-3661.
[本文引用: 1]
[18]
LOU Y, BAI Y. Veri-wild: a large dataset and anew method for vehicle re-identification in the wild [C]// 2019 IEEE Conference on Computer Vision and Pattern Recognition . Honolulu: IEEE, 2019: 3230-3238.
[本文引用: 4]
[19]
LIU H, TIAN Y. Deep relative distance learning: tell the difference between similar vehicles [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition . Las Vegas: IEEE, 2019: 2167–2175.
[本文引用: 1]
[20]
MAATEN L, HINTON G Visualizing data using t-SNE
[J]. Journal of Machine Learning Review , 2008 , 9 : 2579 - 2605
URL
[本文引用: 1]
[21]
LIU Y, TIAN Y. Deep relative distance learning: tell the difference between similar vehicles [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition . Las Vegas: IEEE, 2019: 2167-2175.
[本文引用: 2]
[22]
ALFASLY S, HU Y, LI H, et al Multi-label-based similarity learning for vehicle re-identification
[J]. IEEE Access , 2019 , 7 : 162605 - 162616
DOI:10.1109/ACCESS.2019.2948965
[本文引用: 3]
3
... 车辆再识别[1 -2 ] ,对于城市交通管理和智慧城市建设具有重要意义. 在城市交叉口,由于相机安装高度和角度的限制以及车牌遮挡等原因,车牌信息的获取有时候会遇到一定的困难. 因此,基于视觉特征的车辆再识别更具有一般意义,近些年受到较多研究者的关注. 车辆再识别的目标是判断多个视域不重叠相机所拍摄的车辆是否为同一车辆. 随着视觉技术的飞速发展,车辆再识别,作为车牌识别的有效补充,可以为城市道路安全和交通管理提供重要技术支撑. ...
... 针对车辆再识别问题,Liu等[1 -2 ] 构建Veri-776数据集,并较早地提出基于深度学习的车辆再识别方法. Bai等[6 ] 构建更大规模的VehicleID. 在近几年,大量的车辆再识别工作在这些公开数据集上得以陆续开展. ...
... 在3个主流数据库上开展对比试验,包括VehicleID[6 ] 、Veri-776 [1 -2 ] 以及百万级大型数据库VERI-Wild[18 ] . 将VehicleID中110178张图片用作训练集,其中包含13134个不同车辆;另外111585张图片用作测试集,其中包含13113个不同的车辆. 将VehicleID测试集按照数据库规模大小分为3类,分别为Small、Medium、Large测试子集. Veri-776数据集包含50000张图片,来自于20个不同摄像机所拍摄的776个不同的车辆,将其中576个车辆的37778张图片用作训练集,另外200个车辆的11579张图片作为被检索数据集,另外1664张图片作为检索图片. VERI-Wild数据集是最大的数据集,包含由174个摄像机拍摄的416314张图片,来自40671个不同的车辆. 将VERI-Wild测试集,按照规模大小也分为3类,分别为Small、Medium、Large测试子集. 对于VehicleID和VERI-Wild数据集,对每类随机采样一个样本,所有采样样本构成gallery数据集,剩余部分作为query数据集,并在算法评估过程中重复10次取平均值作为最终结果,所采取的策略来自文献[19 ]. ...
3
... 车辆再识别[1 -2 ] ,对于城市交通管理和智慧城市建设具有重要意义. 在城市交叉口,由于相机安装高度和角度的限制以及车牌遮挡等原因,车牌信息的获取有时候会遇到一定的困难. 因此,基于视觉特征的车辆再识别更具有一般意义,近些年受到较多研究者的关注. 车辆再识别的目标是判断多个视域不重叠相机所拍摄的车辆是否为同一车辆. 随着视觉技术的飞速发展,车辆再识别,作为车牌识别的有效补充,可以为城市道路安全和交通管理提供重要技术支撑. ...
... 针对车辆再识别问题,Liu等[1 -2 ] 构建Veri-776数据集,并较早地提出基于深度学习的车辆再识别方法. Bai等[6 ] 构建更大规模的VehicleID. 在近几年,大量的车辆再识别工作在这些公开数据集上得以陆续开展. ...
... 在3个主流数据库上开展对比试验,包括VehicleID[6 ] 、Veri-776 [1 -2 ] 以及百万级大型数据库VERI-Wild[18 ] . 将VehicleID中110178张图片用作训练集,其中包含13134个不同车辆;另外111585张图片用作测试集,其中包含13113个不同的车辆. 将VehicleID测试集按照数据库规模大小分为3类,分别为Small、Medium、Large测试子集. Veri-776数据集包含50000张图片,来自于20个不同摄像机所拍摄的776个不同的车辆,将其中576个车辆的37778张图片用作训练集,另外200个车辆的11579张图片作为被检索数据集,另外1664张图片作为检索图片. VERI-Wild数据集是最大的数据集,包含由174个摄像机拍摄的416314张图片,来自40671个不同的车辆. 将VERI-Wild测试集,按照规模大小也分为3类,分别为Small、Medium、Large测试子集. 对于VehicleID和VERI-Wild数据集,对每类随机采样一个样本,所有采样样本构成gallery数据集,剩余部分作为query数据集,并在算法评估过程中重复10次取平均值作为最终结果,所采取的策略来自文献[19 ]. ...
1
... 基于卷积神经网络和三元组损失的车辆再识别方法[3 ] 在该领域取得了较大进展. 通过卷积神经网络,细粒度的特征可以被提取出来,比如车辆挡风玻璃前的饰物、车辆外身的划痕. 三元组损失和交叉熵损失可以使得卷积神经网络模型将不同身份的车辆嵌入到不同特征空间中. 借助于特征嵌入,一个车辆可以被表达为一个区分度较高的高维向量. 在检索车辆时,嵌入特征被用来计算检索车辆和数据库车辆之间的相似度. 不过,目前的车辆再识别方法仍然存在一定的问题. 首先,随着车辆数量的增加,不同身份的车辆在其分类边界附近混淆度较高;其次,在网络的训练过程中,不同样本对于模型优化的影响不同,若对于所有样本同等对待,会导致网络训练效率过低;最后,现有车辆再识别方法普遍关注准确率的提升,较少关注网络模型规模的大小和运行效率的问题. ...
2
... 本研究的基础网络分别采用OSNet[4 ] (2.7 M网络参数)和Resnet50[5 ] (24.0 M参数);提出大边距度量学习方法,该方法重点关注分类边界附近的样本以较好地区分这些混淆样本;为了提高训练的效率,采用入侵叛逃采样策略以发现分类边界处的难样本;提出基于核函数的重排序方法以进一步提高车辆再识别性能. ...
... 在训练阶段,所有图片被缩放为256×128,数据增强方法包括随机擦除和随机翻转. 优化方法采用Adam,并使用默认参数. 初始学习率为0.0015,并在第80轮处分别缩小10倍,该参数取值借鉴了基准模型[4 ] ,可以较快地训练基准网络. 在训练的第1阶段,采用三元组损失. 在训练的第2阶段,利用大边距度量损失替换三元组损失,并提前计算好各个样本的特征以及各个类别的中心向量,采用在线的方式在第2阶段更新上述特征. 在第2阶段的训练过程中,每一个批次采样32个正样本、32个负样本. 将该阶段学习率调整为0.00001,实验表明该设置可以让网络较快收敛,又能避免过拟合. 设置LML的权重设为0.5,式(5)中规范化因子δ =2,式(7)核函数中的规范化因子η =1. ...
1
... 本研究的基础网络分别采用OSNet[4 ] (2.7 M网络参数)和Resnet50[5 ] (24.0 M参数);提出大边距度量学习方法,该方法重点关注分类边界附近的样本以较好地区分这些混淆样本;为了提高训练的效率,采用入侵叛逃采样策略以发现分类边界处的难样本;提出基于核函数的重排序方法以进一步提高车辆再识别性能. ...
Group-sensitive triplet embedding for vehicle re-identification
7
2018
... 针对车辆再识别问题,Liu等[1 -2 ] 构建Veri-776数据集,并较早地提出基于深度学习的车辆再识别方法. Bai等[6 ] 构建更大规模的VehicleID. 在近几年,大量的车辆再识别工作在这些公开数据集上得以陆续开展. ...
... 特征提取是车辆再识别流程中最为关键的步骤. 随着深度学习的兴起,各种卷积神经网络借助于不同尺度的卷积核以及逐层的提炼,最终获得区分度较高的嵌入特征. 随着网络参数的增多,复杂的结构往往性能更好,比如VGG[7 ] ,被用作GSTE[6 ] 中的基础网络,取得了较好的车辆再识别性能. 残差网络Resnet50的出现,成为后来很多车辆再识别方法的基础网络. 近几年,在确保特征表达能力的同时,规模更小的网络结构逐渐被设计出来,比如OSNet的参数大小仅为2.7 M. OSNet设计了不同尺度的卷积核,可以自主学习这些不同尺度信息的权重并加以融合,因此它可以更好地捕获从宏观到微观的一系列图像信息. 由于车辆再识别特征一般从前端摄像机上提取,特征匹配在后端服务器上完成,对前端网络模型的规模提出了要求,更小的网络模型更加符合实际应用场景. ...
... 在3个主流数据库上开展对比试验,包括VehicleID[6 ] 、Veri-776 [1 -2 ] 以及百万级大型数据库VERI-Wild[18 ] . 将VehicleID中110178张图片用作训练集,其中包含13134个不同车辆;另外111585张图片用作测试集,其中包含13113个不同的车辆. 将VehicleID测试集按照数据库规模大小分为3类,分别为Small、Medium、Large测试子集. Veri-776数据集包含50000张图片,来自于20个不同摄像机所拍摄的776个不同的车辆,将其中576个车辆的37778张图片用作训练集,另外200个车辆的11579张图片作为被检索数据集,另外1664张图片作为检索图片. VERI-Wild数据集是最大的数据集,包含由174个摄像机拍摄的416314张图片,来自40671个不同的车辆. 将VERI-Wild测试集,按照规模大小也分为3类,分别为Small、Medium、Large测试子集. 对于VehicleID和VERI-Wild数据集,对每类随机采样一个样本,所有采样样本构成gallery数据集,剩余部分作为query数据集,并在算法评估过程中重复10次取平均值作为最终结果,所采取的策略来自文献[19 ]. ...
... 为了验证本研究方法的有效性,在3个数据库上开展相关实验,分别和该领域最近几年的方法进行广泛对比. 在Veri-776和VehicleID数据库上,对比方法包括VANet [8 ] 、GSTE[6 ] 、AAVER[9 ] 、QD-DLF [11 ] 和Part-Reg[10 ] . 这些方法采用Resnet50作为基础网络,因此本研究方法也采用相同的基础网络以保证比较的公平性. 在Veri-776上的比较结果如表2 所示. 考虑到其他方法有些并未使用重排序方法,为了比较的公平性,本研究分别列出了重排序前后的结果. 加粗部分表示最好结果,加下划线部分表示次优结果. ...
... Accuracy comparison of proposed method with other methods on Veri-776 dataset
Tab.2 方法 mAP Rank1 Rank5 QD-DLF[11 ] 61.83 88.50 94.40 Part-Reg[10 ] 74.30 94.30 98.70 AAVER[9 ] 61.20 88.97 94.70 GSTE[6 ] 59.40 96.24 98.97 VANet[8 ] 66.34 89.78 95.99 LML(IDS) 80.55 96.45 98.68 LML(IDS)+KER 80.95 96.81 98.95
由表2 可以看出,本研究方法只有在Rank5指标上略微低于GSTE,这是因为GSTE使用聚类方法对特征空间进行结构学习,其Rank5得到了较大提升. 本研究LML(IDS)方法的mAP比排名次优的Part-Reg高6.25%,表明大边距度量学习对于仅考虑部件特征的方法有更好的特征嵌入和检索性能. 在Rank1指标上,LML(IDS)比次优方法GSTE的96.24高出0.19%. 本研究方法相对于多分支网络,网络参数个数更少,其特征嵌入的质量更好,显示出大边距度量学习在嵌入特征的优化方面更具有优势. ...
... Accuracy comparison of proposed method with other methods on VehicleID dataset
Tab.3 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 QD-DLF[11 ] − 74.69 − 68.62 − 63.54 Part-Reg[10 ] 76.54 72.32 74.63 70.66 68.41 64.14 AAVER[9 ] 61.50 78.40 − 75.00 − 74.20 GSTE[6 ] 75.40 75.90 74.30 74.80 72.40 74.00 VANet[8 ] − 88.12 − 83.17 − 80.35 LML(IDS) 86.60 88.25 83.55 83.42 78.38 80.33 LML(IDS)+ KER 88.75 88.31 84.45 83.85 80.68 80.75
表 4 VERI-Wild数据集上本研究方法与同类方法的识别准确率对比 ...
... Time efficiency comparison of proposed method with other methods
Tab.5 方法 mAP p /M e v /(ms·image−1 ) QD-DLF[11 ] 61.83 24 − 11.19 Part-Reg[10 ] 74.30 48 130 − AAVER[9 ] 61.20 48 120 − GSTE[6 ] 59.40 24 − − VANet[8 ] 66.34 24 200 − LML(Res,Hard) 80.35 24 150 1.67 LML(Res,IDS) 80.50 24 110 1.67 LML(OS,Hard) 80.46 2.7 150 1.12 LML(OS,IDS) 80.55 2.7 110 1.12
4. 结 语 所提出的大边距度量学习方法在现有方法的基础之上可以进一步提高车辆识别的准确率. 通过挖掘决策边界附件的难样本,大边距损失函数可以有效地为网络训练过程提供监督信息,使得嵌入空间中不同身份的车辆彼此之间能够形成较为明显的分类界面. 本研究方法仅需要车辆的身份作为监督信息,因而算法的鲁棒性和适应性更好. 在满足准确率的同时,本研究方法可以更好地适应车辆识别具体应用场景. 后续工作须进一步研究车辆图像的超分辨率增强、完善车辆检测阶段的精确语义分割内容. ...
1
... 特征提取是车辆再识别流程中最为关键的步骤. 随着深度学习的兴起,各种卷积神经网络借助于不同尺度的卷积核以及逐层的提炼,最终获得区分度较高的嵌入特征. 随着网络参数的增多,复杂的结构往往性能更好,比如VGG[7 ] ,被用作GSTE[6 ] 中的基础网络,取得了较好的车辆再识别性能. 残差网络Resnet50的出现,成为后来很多车辆再识别方法的基础网络. 近几年,在确保特征表达能力的同时,规模更小的网络结构逐渐被设计出来,比如OSNet的参数大小仅为2.7 M. OSNet设计了不同尺度的卷积核,可以自主学习这些不同尺度信息的权重并加以融合,因此它可以更好地捕获从宏观到微观的一系列图像信息. 由于车辆再识别特征一般从前端摄像机上提取,特征匹配在后端服务器上完成,对前端网络模型的规模提出了要求,更小的网络模型更加符合实际应用场景. ...
5
... 较多学者在现有网络结构之上,对嵌入特征进行改造以获得区分度更好的特征表达. VANet[8 ] 根据车辆视角的不同设计不同的网络分支,以处理不同视角的车辆. AAVER[9 ] 采用类似的策略,通过多分支网络结构提高嵌入特征的辨别能力. 但是,多分支网络在提高识别准确率的同时,也难以避免地带来网络参数规模的增加. Part-Reg[10 ] 通过引入目标检测技术确定车辆部件,再利用增强的局部特征提高准确率. 但是这种特征提取的方式,必须引入其他监督信息. QD-DLF[11 ] 通过对卷积层输出的原始特征,进行不同方向的切片和重组,得到表达能力更好的特征. 本研究采用OSNet作为基础网络,没有引入视角、部件监督信息,因而其对前端处理能力要求更低,较小的网络模型和计算复杂度更加适应车辆再识别的具体应用场景. ...
... 为了验证本研究方法的有效性,在3个数据库上开展相关实验,分别和该领域最近几年的方法进行广泛对比. 在Veri-776和VehicleID数据库上,对比方法包括VANet [8 ] 、GSTE[6 ] 、AAVER[9 ] 、QD-DLF [11 ] 和Part-Reg[10 ] . 这些方法采用Resnet50作为基础网络,因此本研究方法也采用相同的基础网络以保证比较的公平性. 在Veri-776上的比较结果如表2 所示. 考虑到其他方法有些并未使用重排序方法,为了比较的公平性,本研究分别列出了重排序前后的结果. 加粗部分表示最好结果,加下划线部分表示次优结果. ...
... Accuracy comparison of proposed method with other methods on Veri-776 dataset
Tab.2 方法 mAP Rank1 Rank5 QD-DLF[11 ] 61.83 88.50 94.40 Part-Reg[10 ] 74.30 94.30 98.70 AAVER[9 ] 61.20 88.97 94.70 GSTE[6 ] 59.40 96.24 98.97 VANet[8 ] 66.34 89.78 95.99 LML(IDS) 80.55 96.45 98.68 LML(IDS)+KER 80.95 96.81 98.95
由表2 可以看出,本研究方法只有在Rank5指标上略微低于GSTE,这是因为GSTE使用聚类方法对特征空间进行结构学习,其Rank5得到了较大提升. 本研究LML(IDS)方法的mAP比排名次优的Part-Reg高6.25%,表明大边距度量学习对于仅考虑部件特征的方法有更好的特征嵌入和检索性能. 在Rank1指标上,LML(IDS)比次优方法GSTE的96.24高出0.19%. 本研究方法相对于多分支网络,网络参数个数更少,其特征嵌入的质量更好,显示出大边距度量学习在嵌入特征的优化方面更具有优势. ...
... Accuracy comparison of proposed method with other methods on VehicleID dataset
Tab.3 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 QD-DLF[11 ] − 74.69 − 68.62 − 63.54 Part-Reg[10 ] 76.54 72.32 74.63 70.66 68.41 64.14 AAVER[9 ] 61.50 78.40 − 75.00 − 74.20 GSTE[6 ] 75.40 75.90 74.30 74.80 72.40 74.00 VANet[8 ] − 88.12 − 83.17 − 80.35 LML(IDS) 86.60 88.25 83.55 83.42 78.38 80.33 LML(IDS)+ KER 88.75 88.31 84.45 83.85 80.68 80.75
表 4 VERI-Wild数据集上本研究方法与同类方法的识别准确率对比 ...
... Time efficiency comparison of proposed method with other methods
Tab.5 方法 mAP p /M e v /(ms·image−1 ) QD-DLF[11 ] 61.83 24 − 11.19 Part-Reg[10 ] 74.30 48 130 − AAVER[9 ] 61.20 48 120 − GSTE[6 ] 59.40 24 − − VANet[8 ] 66.34 24 200 − LML(Res,Hard) 80.35 24 150 1.67 LML(Res,IDS) 80.50 24 110 1.67 LML(OS,Hard) 80.46 2.7 150 1.12 LML(OS,IDS) 80.55 2.7 110 1.12
4. 结 语 所提出的大边距度量学习方法在现有方法的基础之上可以进一步提高车辆识别的准确率. 通过挖掘决策边界附件的难样本,大边距损失函数可以有效地为网络训练过程提供监督信息,使得嵌入空间中不同身份的车辆彼此之间能够形成较为明显的分类界面. 本研究方法仅需要车辆的身份作为监督信息,因而算法的鲁棒性和适应性更好. 在满足准确率的同时,本研究方法可以更好地适应车辆识别具体应用场景. 后续工作须进一步研究车辆图像的超分辨率增强、完善车辆检测阶段的精确语义分割内容. ...
5
... 较多学者在现有网络结构之上,对嵌入特征进行改造以获得区分度更好的特征表达. VANet[8 ] 根据车辆视角的不同设计不同的网络分支,以处理不同视角的车辆. AAVER[9 ] 采用类似的策略,通过多分支网络结构提高嵌入特征的辨别能力. 但是,多分支网络在提高识别准确率的同时,也难以避免地带来网络参数规模的增加. Part-Reg[10 ] 通过引入目标检测技术确定车辆部件,再利用增强的局部特征提高准确率. 但是这种特征提取的方式,必须引入其他监督信息. QD-DLF[11 ] 通过对卷积层输出的原始特征,进行不同方向的切片和重组,得到表达能力更好的特征. 本研究采用OSNet作为基础网络,没有引入视角、部件监督信息,因而其对前端处理能力要求更低,较小的网络模型和计算复杂度更加适应车辆再识别的具体应用场景. ...
... 为了验证本研究方法的有效性,在3个数据库上开展相关实验,分别和该领域最近几年的方法进行广泛对比. 在Veri-776和VehicleID数据库上,对比方法包括VANet [8 ] 、GSTE[6 ] 、AAVER[9 ] 、QD-DLF [11 ] 和Part-Reg[10 ] . 这些方法采用Resnet50作为基础网络,因此本研究方法也采用相同的基础网络以保证比较的公平性. 在Veri-776上的比较结果如表2 所示. 考虑到其他方法有些并未使用重排序方法,为了比较的公平性,本研究分别列出了重排序前后的结果. 加粗部分表示最好结果,加下划线部分表示次优结果. ...
... Accuracy comparison of proposed method with other methods on Veri-776 dataset
Tab.2 方法 mAP Rank1 Rank5 QD-DLF[11 ] 61.83 88.50 94.40 Part-Reg[10 ] 74.30 94.30 98.70 AAVER[9 ] 61.20 88.97 94.70 GSTE[6 ] 59.40 96.24 98.97 VANet[8 ] 66.34 89.78 95.99 LML(IDS) 80.55 96.45 98.68 LML(IDS)+KER 80.95 96.81 98.95
由表2 可以看出,本研究方法只有在Rank5指标上略微低于GSTE,这是因为GSTE使用聚类方法对特征空间进行结构学习,其Rank5得到了较大提升. 本研究LML(IDS)方法的mAP比排名次优的Part-Reg高6.25%,表明大边距度量学习对于仅考虑部件特征的方法有更好的特征嵌入和检索性能. 在Rank1指标上,LML(IDS)比次优方法GSTE的96.24高出0.19%. 本研究方法相对于多分支网络,网络参数个数更少,其特征嵌入的质量更好,显示出大边距度量学习在嵌入特征的优化方面更具有优势. ...
... Accuracy comparison of proposed method with other methods on VehicleID dataset
Tab.3 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 QD-DLF[11 ] − 74.69 − 68.62 − 63.54 Part-Reg[10 ] 76.54 72.32 74.63 70.66 68.41 64.14 AAVER[9 ] 61.50 78.40 − 75.00 − 74.20 GSTE[6 ] 75.40 75.90 74.30 74.80 72.40 74.00 VANet[8 ] − 88.12 − 83.17 − 80.35 LML(IDS) 86.60 88.25 83.55 83.42 78.38 80.33 LML(IDS)+ KER 88.75 88.31 84.45 83.85 80.68 80.75
表 4 VERI-Wild数据集上本研究方法与同类方法的识别准确率对比 ...
... Time efficiency comparison of proposed method with other methods
Tab.5 方法 mAP p /M e v /(ms·image−1 ) QD-DLF[11 ] 61.83 24 − 11.19 Part-Reg[10 ] 74.30 48 130 − AAVER[9 ] 61.20 48 120 − GSTE[6 ] 59.40 24 − − VANet[8 ] 66.34 24 200 − LML(Res,Hard) 80.35 24 150 1.67 LML(Res,IDS) 80.50 24 110 1.67 LML(OS,Hard) 80.46 2.7 150 1.12 LML(OS,IDS) 80.55 2.7 110 1.12
4. 结 语 所提出的大边距度量学习方法在现有方法的基础之上可以进一步提高车辆识别的准确率. 通过挖掘决策边界附件的难样本,大边距损失函数可以有效地为网络训练过程提供监督信息,使得嵌入空间中不同身份的车辆彼此之间能够形成较为明显的分类界面. 本研究方法仅需要车辆的身份作为监督信息,因而算法的鲁棒性和适应性更好. 在满足准确率的同时,本研究方法可以更好地适应车辆识别具体应用场景. 后续工作须进一步研究车辆图像的超分辨率增强、完善车辆检测阶段的精确语义分割内容. ...
5
... 较多学者在现有网络结构之上,对嵌入特征进行改造以获得区分度更好的特征表达. VANet[8 ] 根据车辆视角的不同设计不同的网络分支,以处理不同视角的车辆. AAVER[9 ] 采用类似的策略,通过多分支网络结构提高嵌入特征的辨别能力. 但是,多分支网络在提高识别准确率的同时,也难以避免地带来网络参数规模的增加. Part-Reg[10 ] 通过引入目标检测技术确定车辆部件,再利用增强的局部特征提高准确率. 但是这种特征提取的方式,必须引入其他监督信息. QD-DLF[11 ] 通过对卷积层输出的原始特征,进行不同方向的切片和重组,得到表达能力更好的特征. 本研究采用OSNet作为基础网络,没有引入视角、部件监督信息,因而其对前端处理能力要求更低,较小的网络模型和计算复杂度更加适应车辆再识别的具体应用场景. ...
... 为了验证本研究方法的有效性,在3个数据库上开展相关实验,分别和该领域最近几年的方法进行广泛对比. 在Veri-776和VehicleID数据库上,对比方法包括VANet [8 ] 、GSTE[6 ] 、AAVER[9 ] 、QD-DLF [11 ] 和Part-Reg[10 ] . 这些方法采用Resnet50作为基础网络,因此本研究方法也采用相同的基础网络以保证比较的公平性. 在Veri-776上的比较结果如表2 所示. 考虑到其他方法有些并未使用重排序方法,为了比较的公平性,本研究分别列出了重排序前后的结果. 加粗部分表示最好结果,加下划线部分表示次优结果. ...
... Accuracy comparison of proposed method with other methods on Veri-776 dataset
Tab.2 方法 mAP Rank1 Rank5 QD-DLF[11 ] 61.83 88.50 94.40 Part-Reg[10 ] 74.30 94.30 98.70 AAVER[9 ] 61.20 88.97 94.70 GSTE[6 ] 59.40 96.24 98.97 VANet[8 ] 66.34 89.78 95.99 LML(IDS) 80.55 96.45 98.68 LML(IDS)+KER 80.95 96.81 98.95
由表2 可以看出,本研究方法只有在Rank5指标上略微低于GSTE,这是因为GSTE使用聚类方法对特征空间进行结构学习,其Rank5得到了较大提升. 本研究LML(IDS)方法的mAP比排名次优的Part-Reg高6.25%,表明大边距度量学习对于仅考虑部件特征的方法有更好的特征嵌入和检索性能. 在Rank1指标上,LML(IDS)比次优方法GSTE的96.24高出0.19%. 本研究方法相对于多分支网络,网络参数个数更少,其特征嵌入的质量更好,显示出大边距度量学习在嵌入特征的优化方面更具有优势. ...
... Accuracy comparison of proposed method with other methods on VehicleID dataset
Tab.3 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 QD-DLF[11 ] − 74.69 − 68.62 − 63.54 Part-Reg[10 ] 76.54 72.32 74.63 70.66 68.41 64.14 AAVER[9 ] 61.50 78.40 − 75.00 − 74.20 GSTE[6 ] 75.40 75.90 74.30 74.80 72.40 74.00 VANet[8 ] − 88.12 − 83.17 − 80.35 LML(IDS) 86.60 88.25 83.55 83.42 78.38 80.33 LML(IDS)+ KER 88.75 88.31 84.45 83.85 80.68 80.75
表 4 VERI-Wild数据集上本研究方法与同类方法的识别准确率对比 ...
... Time efficiency comparison of proposed method with other methods
Tab.5 方法 mAP p /M e v /(ms·image−1 ) QD-DLF[11 ] 61.83 24 − 11.19 Part-Reg[10 ] 74.30 48 130 − AAVER[9 ] 61.20 48 120 − GSTE[6 ] 59.40 24 − − VANet[8 ] 66.34 24 200 − LML(Res,Hard) 80.35 24 150 1.67 LML(Res,IDS) 80.50 24 110 1.67 LML(OS,Hard) 80.46 2.7 150 1.12 LML(OS,IDS) 80.55 2.7 110 1.12
4. 结 语 所提出的大边距度量学习方法在现有方法的基础之上可以进一步提高车辆识别的准确率. 通过挖掘决策边界附件的难样本,大边距损失函数可以有效地为网络训练过程提供监督信息,使得嵌入空间中不同身份的车辆彼此之间能够形成较为明显的分类界面. 本研究方法仅需要车辆的身份作为监督信息,因而算法的鲁棒性和适应性更好. 在满足准确率的同时,本研究方法可以更好地适应车辆识别具体应用场景. 后续工作须进一步研究车辆图像的超分辨率增强、完善车辆检测阶段的精确语义分割内容. ...
Vehicle re-identification using quadruple directional deep learning features
5
2019
... 较多学者在现有网络结构之上,对嵌入特征进行改造以获得区分度更好的特征表达. VANet[8 ] 根据车辆视角的不同设计不同的网络分支,以处理不同视角的车辆. AAVER[9 ] 采用类似的策略,通过多分支网络结构提高嵌入特征的辨别能力. 但是,多分支网络在提高识别准确率的同时,也难以避免地带来网络参数规模的增加. Part-Reg[10 ] 通过引入目标检测技术确定车辆部件,再利用增强的局部特征提高准确率. 但是这种特征提取的方式,必须引入其他监督信息. QD-DLF[11 ] 通过对卷积层输出的原始特征,进行不同方向的切片和重组,得到表达能力更好的特征. 本研究采用OSNet作为基础网络,没有引入视角、部件监督信息,因而其对前端处理能力要求更低,较小的网络模型和计算复杂度更加适应车辆再识别的具体应用场景. ...
... 为了验证本研究方法的有效性,在3个数据库上开展相关实验,分别和该领域最近几年的方法进行广泛对比. 在Veri-776和VehicleID数据库上,对比方法包括VANet [8 ] 、GSTE[6 ] 、AAVER[9 ] 、QD-DLF [11 ] 和Part-Reg[10 ] . 这些方法采用Resnet50作为基础网络,因此本研究方法也采用相同的基础网络以保证比较的公平性. 在Veri-776上的比较结果如表2 所示. 考虑到其他方法有些并未使用重排序方法,为了比较的公平性,本研究分别列出了重排序前后的结果. 加粗部分表示最好结果,加下划线部分表示次优结果. ...
... Accuracy comparison of proposed method with other methods on Veri-776 dataset
Tab.2 方法 mAP Rank1 Rank5 QD-DLF[11 ] 61.83 88.50 94.40 Part-Reg[10 ] 74.30 94.30 98.70 AAVER[9 ] 61.20 88.97 94.70 GSTE[6 ] 59.40 96.24 98.97 VANet[8 ] 66.34 89.78 95.99 LML(IDS) 80.55 96.45 98.68 LML(IDS)+KER 80.95 96.81 98.95
由表2 可以看出,本研究方法只有在Rank5指标上略微低于GSTE,这是因为GSTE使用聚类方法对特征空间进行结构学习,其Rank5得到了较大提升. 本研究LML(IDS)方法的mAP比排名次优的Part-Reg高6.25%,表明大边距度量学习对于仅考虑部件特征的方法有更好的特征嵌入和检索性能. 在Rank1指标上,LML(IDS)比次优方法GSTE的96.24高出0.19%. 本研究方法相对于多分支网络,网络参数个数更少,其特征嵌入的质量更好,显示出大边距度量学习在嵌入特征的优化方面更具有优势. ...
... Accuracy comparison of proposed method with other methods on VehicleID dataset
Tab.3 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 QD-DLF[11 ] − 74.69 − 68.62 − 63.54 Part-Reg[10 ] 76.54 72.32 74.63 70.66 68.41 64.14 AAVER[9 ] 61.50 78.40 − 75.00 − 74.20 GSTE[6 ] 75.40 75.90 74.30 74.80 72.40 74.00 VANet[8 ] − 88.12 − 83.17 − 80.35 LML(IDS) 86.60 88.25 83.55 83.42 78.38 80.33 LML(IDS)+ KER 88.75 88.31 84.45 83.85 80.68 80.75
表 4 VERI-Wild数据集上本研究方法与同类方法的识别准确率对比 ...
... Time efficiency comparison of proposed method with other methods
Tab.5 方法 mAP p /M e v /(ms·image−1 ) QD-DLF[11 ] 61.83 24 − 11.19 Part-Reg[10 ] 74.30 48 130 − AAVER[9 ] 61.20 48 120 − GSTE[6 ] 59.40 24 − − VANet[8 ] 66.34 24 200 − LML(Res,Hard) 80.35 24 150 1.67 LML(Res,IDS) 80.50 24 110 1.67 LML(OS,Hard) 80.46 2.7 150 1.12 LML(OS,IDS) 80.55 2.7 110 1.12
4. 结 语 所提出的大边距度量学习方法在现有方法的基础之上可以进一步提高车辆识别的准确率. 通过挖掘决策边界附件的难样本,大边距损失函数可以有效地为网络训练过程提供监督信息,使得嵌入空间中不同身份的车辆彼此之间能够形成较为明显的分类界面. 本研究方法仅需要车辆的身份作为监督信息,因而算法的鲁棒性和适应性更好. 在满足准确率的同时,本研究方法可以更好地适应车辆识别具体应用场景. 后续工作须进一步研究车辆图像的超分辨率增强、完善车辆检测阶段的精确语义分割内容. ...
1
... 式中:m 为人工定义的阈值,一般取0.3;a 为参考样本;p 为与a 同标签的正样本;n 为与a 不同标签的负样本. 近些年取得较高准确率的车辆再识别方法[12 -14 ] 均采用三元组损失函数. 交叉熵损失和三元组损失经常被结合起来训练神经网络模型. 在三元组损失的基础上,提出各种变形方法[15 ] 以进一步约束类内距离,确保类内距离小于各类之间距离. 区别于一般计算三元组点对点的方式,基于点对集合[15 ] ,通过将正样本扩充为正样本集,负样本扩充为负样本集,以更好地提高训练效率. 然而三元组损失及其变形算法,依然存在一定的局限性. 首先,在车辆再识别领域,同一类的样本其特征更加分散,因此对于参考样本的选择较敏感;其次,三元组作为度量学习方法,其训练过程是在一个批样本上完成的,因而全局样本的度量信息没有得到充分利用;最后,三元组损失的训练过程较大程度上受限于样本采样策略,因为多数样本对于网络模型的训练并无贡献,从而导致网络训练效率较低,尤其是在训练的最后阶段. 为了弥补现有方法的不足,提出基于大边距度量学习的车辆再识别方法,可以对分类边界附近的样本进行重点学习,以实现较高准确率的车辆再识别. ...
A discriminatively learned cnn embedding for personre-identification
0
2017
Provid: progressive and multimodal vehicle reidentification for large-scale urban surveillance
1
2018
... 式中:m 为人工定义的阈值,一般取0.3;a 为参考样本;p 为与a 同标签的正样本;n 为与a 不同标签的负样本. 近些年取得较高准确率的车辆再识别方法[12 -14 ] 均采用三元组损失函数. 交叉熵损失和三元组损失经常被结合起来训练神经网络模型. 在三元组损失的基础上,提出各种变形方法[15 ] 以进一步约束类内距离,确保类内距离小于各类之间距离. 区别于一般计算三元组点对点的方式,基于点对集合[15 ] ,通过将正样本扩充为正样本集,负样本扩充为负样本集,以更好地提高训练效率. 然而三元组损失及其变形算法,依然存在一定的局限性. 首先,在车辆再识别领域,同一类的样本其特征更加分散,因此对于参考样本的选择较敏感;其次,三元组作为度量学习方法,其训练过程是在一个批样本上完成的,因而全局样本的度量信息没有得到充分利用;最后,三元组损失的训练过程较大程度上受限于样本采样策略,因为多数样本对于网络模型的训练并无贡献,从而导致网络训练效率较低,尤其是在训练的最后阶段. 为了弥补现有方法的不足,提出基于大边距度量学习的车辆再识别方法,可以对分类边界附近的样本进行重点学习,以实现较高准确率的车辆再识别. ...
Hard-aware point-to-set deep metric for person re-identification
2
2018
... 式中:m 为人工定义的阈值,一般取0.3;a 为参考样本;p 为与a 同标签的正样本;n 为与a 不同标签的负样本. 近些年取得较高准确率的车辆再识别方法[12 -14 ] 均采用三元组损失函数. 交叉熵损失和三元组损失经常被结合起来训练神经网络模型. 在三元组损失的基础上,提出各种变形方法[15 ] 以进一步约束类内距离,确保类内距离小于各类之间距离. 区别于一般计算三元组点对点的方式,基于点对集合[15 ] ,通过将正样本扩充为正样本集,负样本扩充为负样本集,以更好地提高训练效率. 然而三元组损失及其变形算法,依然存在一定的局限性. 首先,在车辆再识别领域,同一类的样本其特征更加分散,因此对于参考样本的选择较敏感;其次,三元组作为度量学习方法,其训练过程是在一个批样本上完成的,因而全局样本的度量信息没有得到充分利用;最后,三元组损失的训练过程较大程度上受限于样本采样策略,因为多数样本对于网络模型的训练并无贡献,从而导致网络训练效率较低,尤其是在训练的最后阶段. 为了弥补现有方法的不足,提出基于大边距度量学习的车辆再识别方法,可以对分类边界附近的样本进行重点学习,以实现较高准确率的车辆再识别. ...
... [15 ],通过将正样本扩充为正样本集,负样本扩充为负样本集,以更好地提高训练效率. 然而三元组损失及其变形算法,依然存在一定的局限性. 首先,在车辆再识别领域,同一类的样本其特征更加分散,因此对于参考样本的选择较敏感;其次,三元组作为度量学习方法,其训练过程是在一个批样本上完成的,因而全局样本的度量信息没有得到充分利用;最后,三元组损失的训练过程较大程度上受限于样本采样策略,因为多数样本对于网络模型的训练并无贡献,从而导致网络训练效率较低,尤其是在训练的最后阶段. 为了弥补现有方法的不足,提出基于大边距度量学习的车辆再识别方法,可以对分类边界附近的样本进行重点学习,以实现较高准确率的车辆再识别. ...
Support-vector networks
1
1995
... 为了实现上述目标,首先须找到分类边界. 将不同身份的2种车辆视为二分类问题,使用传统支持向量机[16 ] 找到该分类边界. 具体实现方法为,在一个批训练样本中,采集一定数量的正样本和负样本,借助于二次规划方法找出其分类边界. 二次规划表达式为 ...
1
... 重排序方法[17 ] 在车辆再识别领域是较好的后期处理技术. 但是,由于嵌入特征的分散性,重排序的准确率提升较有限. 因此,本研究提出基于核函数的重排序方法. 该方法将所有类别的中心特征定义为核,并使用核函数对车辆特征进行转换: ...
4
... 在3个主流数据库上开展对比试验,包括VehicleID[6 ] 、Veri-776 [1 -2 ] 以及百万级大型数据库VERI-Wild[18 ] . 将VehicleID中110178张图片用作训练集,其中包含13134个不同车辆;另外111585张图片用作测试集,其中包含13113个不同的车辆. 将VehicleID测试集按照数据库规模大小分为3类,分别为Small、Medium、Large测试子集. Veri-776数据集包含50000张图片,来自于20个不同摄像机所拍摄的776个不同的车辆,将其中576个车辆的37778张图片用作训练集,另外200个车辆的11579张图片作为被检索数据集,另外1664张图片作为检索图片. VERI-Wild数据集是最大的数据集,包含由174个摄像机拍摄的416314张图片,来自40671个不同的车辆. 将VERI-Wild测试集,按照规模大小也分为3类,分别为Small、Medium、Large测试子集. 对于VehicleID和VERI-Wild数据集,对每类随机采样一个样本,所有采样样本构成gallery数据集,剩余部分作为query数据集,并在算法评估过程中重复10次取平均值作为最终结果,所采取的策略来自文献[19 ]. ...
... VehicleID数据库样本数量规模更大,在该数据库上,分别对不同规模大小的3个测试子集进行对比实验,如表3 所示.可以看出,本研究方法LML(IDS)+KER在3个测试子集上都一致性地表现出比同类方法更好的性能. 基于核函数的重排序LML(IDS)+KER比LML(IDS)在性能提升上有一定的提升. 为了比较的公平性,此处列出了LML(IDS)方法,而不使用LML(IDS)+KER进行比较. 在Large测试集上,本研究方法在Rank1指标上比VANet低0.02%,在mAP上比次优的GSTE高5.98%. 在Medium测试集上,本研究方法在Rank1上比次优方法VANet高0.25%,在mAP上比次优的Part-Reg高8.98%. 在Small数据集上,本研究方法同样领先次优方法VANet和Parg-Reg. 在这个相对规模更大的数据集上,考虑视角差异的多分支网络VANet和Parg-Reg,相对于Veri-776数据集性能表现更好. 本研究方法从优化特征空间的分类界面入手,使得同类样本的特征分布更加紧致,特征嵌入的质量得到提高,从而表现出了更好的再识别性能. 为了进一步验证本研究方法的有效性,在更大的数据集VERI-Wild上,分别对其3个不同规模大小的测试子集进行对比实验,如表4 所示. 在该数据集上的对比方法包括DRDL[21 ] 、FDA-Net[18 ] 和MLSL[22 ] . 相比次优方法FDA-Net[18 ] 和MLSL[22 ] ,本研究方法较大地提高了再识别的性能. 本研究方法LML(IDS)通过重点关注决策边界处的混淆样本,通过微调网络模型以优化特征的嵌入质量,从而表现出比同类方法更好的性能. 通过上述一系列实验,在这3个不同规模的数据集上,本研究方法表现出了比同类方法更好的特征学习和特征嵌入的能力,其车辆再识别的准确率也比同类方法更高. ...
... [18 ]和MLSL[22 ] ,本研究方法较大地提高了再识别的性能. 本研究方法LML(IDS)通过重点关注决策边界处的混淆样本,通过微调网络模型以优化特征的嵌入质量,从而表现出比同类方法更好的性能. 通过上述一系列实验,在这3个不同规模的数据集上,本研究方法表现出了比同类方法更好的特征学习和特征嵌入的能力,其车辆再识别的准确率也比同类方法更高. ...
... Accuracy comparison of proposed method with other methods on VERI-Wild dataset
Tab.4 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 DRDL[21 ] 22.50 57.00 19.30 51.90 14.80 44.60 FDA-Net[18 ] 35.10 64.00 29.80 57.80 68.41 49.40 MLSL[22 ] 46.30 78.40 42.40 83.00 22.80 77.50 LML(IDS) 86.47 95.94 82.85 94.61 76.63 90.75 LML(IDS)+ KER 87.45 96.28 83.35 95.15 77.35 91.85
3.4. 检索结果可视化 为了更加直观地显示检索效果,利用LMS(IDS)在OSNet网络上训练的模型,在Veri-776数据集上对检索结果进行可视化展示. 如图6 所示,按照和被检索图片的距离关系分析检索结果. 可以看出,在检索结果中,样本呈现出了不同视角的变化,说明本研究方法可以适应不同视角的变化. 比如第1行的第8个样本具有和被检索车辆完全不重合的视角,仍然被正确地检索出来. 最后一行的被检索样本,具有复杂背景,但是所有检索结果都是正确的. 若不采用本研究的算法,这些样本均不能被正确检索到. ...
1
... 在3个主流数据库上开展对比试验,包括VehicleID[6 ] 、Veri-776 [1 -2 ] 以及百万级大型数据库VERI-Wild[18 ] . 将VehicleID中110178张图片用作训练集,其中包含13134个不同车辆;另外111585张图片用作测试集,其中包含13113个不同的车辆. 将VehicleID测试集按照数据库规模大小分为3类,分别为Small、Medium、Large测试子集. Veri-776数据集包含50000张图片,来自于20个不同摄像机所拍摄的776个不同的车辆,将其中576个车辆的37778张图片用作训练集,另外200个车辆的11579张图片作为被检索数据集,另外1664张图片作为检索图片. VERI-Wild数据集是最大的数据集,包含由174个摄像机拍摄的416314张图片,来自40671个不同的车辆. 将VERI-Wild测试集,按照规模大小也分为3类,分别为Small、Medium、Large测试子集. 对于VehicleID和VERI-Wild数据集,对每类随机采样一个样本,所有采样样本构成gallery数据集,剩余部分作为query数据集,并在算法评估过程中重复10次取平均值作为最终结果,所采取的策略来自文献[19 ]. ...
Visualizing data using t-SNE
1
2008
... 为了更直观地展示本研究方法的效果,对于嵌入特征通过t-SNE[20 ] 进行了三维可视化. 如图5 所示,在使用所提方法之前,原有嵌入特征异类之间混淆程度较高,而通过本研究方法,分类界面比原先更加清晰. 图5 中2类样本是在Veri-776数据库中随机选择的. ...
2
... VehicleID数据库样本数量规模更大,在该数据库上,分别对不同规模大小的3个测试子集进行对比实验,如表3 所示.可以看出,本研究方法LML(IDS)+KER在3个测试子集上都一致性地表现出比同类方法更好的性能. 基于核函数的重排序LML(IDS)+KER比LML(IDS)在性能提升上有一定的提升. 为了比较的公平性,此处列出了LML(IDS)方法,而不使用LML(IDS)+KER进行比较. 在Large测试集上,本研究方法在Rank1指标上比VANet低0.02%,在mAP上比次优的GSTE高5.98%. 在Medium测试集上,本研究方法在Rank1上比次优方法VANet高0.25%,在mAP上比次优的Part-Reg高8.98%. 在Small数据集上,本研究方法同样领先次优方法VANet和Parg-Reg. 在这个相对规模更大的数据集上,考虑视角差异的多分支网络VANet和Parg-Reg,相对于Veri-776数据集性能表现更好. 本研究方法从优化特征空间的分类界面入手,使得同类样本的特征分布更加紧致,特征嵌入的质量得到提高,从而表现出了更好的再识别性能. 为了进一步验证本研究方法的有效性,在更大的数据集VERI-Wild上,分别对其3个不同规模大小的测试子集进行对比实验,如表4 所示. 在该数据集上的对比方法包括DRDL[21 ] 、FDA-Net[18 ] 和MLSL[22 ] . 相比次优方法FDA-Net[18 ] 和MLSL[22 ] ,本研究方法较大地提高了再识别的性能. 本研究方法LML(IDS)通过重点关注决策边界处的混淆样本,通过微调网络模型以优化特征的嵌入质量,从而表现出比同类方法更好的性能. 通过上述一系列实验,在这3个不同规模的数据集上,本研究方法表现出了比同类方法更好的特征学习和特征嵌入的能力,其车辆再识别的准确率也比同类方法更高. ...
... Accuracy comparison of proposed method with other methods on VERI-Wild dataset
Tab.4 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 DRDL[21 ] 22.50 57.00 19.30 51.90 14.80 44.60 FDA-Net[18 ] 35.10 64.00 29.80 57.80 68.41 49.40 MLSL[22 ] 46.30 78.40 42.40 83.00 22.80 77.50 LML(IDS) 86.47 95.94 82.85 94.61 76.63 90.75 LML(IDS)+ KER 87.45 96.28 83.35 95.15 77.35 91.85
3.4. 检索结果可视化 为了更加直观地显示检索效果,利用LMS(IDS)在OSNet网络上训练的模型,在Veri-776数据集上对检索结果进行可视化展示. 如图6 所示,按照和被检索图片的距离关系分析检索结果. 可以看出,在检索结果中,样本呈现出了不同视角的变化,说明本研究方法可以适应不同视角的变化. 比如第1行的第8个样本具有和被检索车辆完全不重合的视角,仍然被正确地检索出来. 最后一行的被检索样本,具有复杂背景,但是所有检索结果都是正确的. 若不采用本研究的算法,这些样本均不能被正确检索到. ...
Multi-label-based similarity learning for vehicle re-identification
3
2019
... VehicleID数据库样本数量规模更大,在该数据库上,分别对不同规模大小的3个测试子集进行对比实验,如表3 所示.可以看出,本研究方法LML(IDS)+KER在3个测试子集上都一致性地表现出比同类方法更好的性能. 基于核函数的重排序LML(IDS)+KER比LML(IDS)在性能提升上有一定的提升. 为了比较的公平性,此处列出了LML(IDS)方法,而不使用LML(IDS)+KER进行比较. 在Large测试集上,本研究方法在Rank1指标上比VANet低0.02%,在mAP上比次优的GSTE高5.98%. 在Medium测试集上,本研究方法在Rank1上比次优方法VANet高0.25%,在mAP上比次优的Part-Reg高8.98%. 在Small数据集上,本研究方法同样领先次优方法VANet和Parg-Reg. 在这个相对规模更大的数据集上,考虑视角差异的多分支网络VANet和Parg-Reg,相对于Veri-776数据集性能表现更好. 本研究方法从优化特征空间的分类界面入手,使得同类样本的特征分布更加紧致,特征嵌入的质量得到提高,从而表现出了更好的再识别性能. 为了进一步验证本研究方法的有效性,在更大的数据集VERI-Wild上,分别对其3个不同规模大小的测试子集进行对比实验,如表4 所示. 在该数据集上的对比方法包括DRDL[21 ] 、FDA-Net[18 ] 和MLSL[22 ] . 相比次优方法FDA-Net[18 ] 和MLSL[22 ] ,本研究方法较大地提高了再识别的性能. 本研究方法LML(IDS)通过重点关注决策边界处的混淆样本,通过微调网络模型以优化特征的嵌入质量,从而表现出比同类方法更好的性能. 通过上述一系列实验,在这3个不同规模的数据集上,本研究方法表现出了比同类方法更好的特征学习和特征嵌入的能力,其车辆再识别的准确率也比同类方法更高. ...
... [22 ],本研究方法较大地提高了再识别的性能. 本研究方法LML(IDS)通过重点关注决策边界处的混淆样本,通过微调网络模型以优化特征的嵌入质量,从而表现出比同类方法更好的性能. 通过上述一系列实验,在这3个不同规模的数据集上,本研究方法表现出了比同类方法更好的特征学习和特征嵌入的能力,其车辆再识别的准确率也比同类方法更高. ...
... Accuracy comparison of proposed method with other methods on VERI-Wild dataset
Tab.4 方法 Small Medium Large mAP Rank1 mAP Rank1 mAP Rank1 DRDL[21 ] 22.50 57.00 19.30 51.90 14.80 44.60 FDA-Net[18 ] 35.10 64.00 29.80 57.80 68.41 49.40 MLSL[22 ] 46.30 78.40 42.40 83.00 22.80 77.50 LML(IDS) 86.47 95.94 82.85 94.61 76.63 90.75 LML(IDS)+ KER 87.45 96.28 83.35 95.15 77.35 91.85
3.4. 检索结果可视化 为了更加直观地显示检索效果,利用LMS(IDS)在OSNet网络上训练的模型,在Veri-776数据集上对检索结果进行可视化展示. 如图6 所示,按照和被检索图片的距离关系分析检索结果. 可以看出,在检索结果中,样本呈现出了不同视角的变化,说明本研究方法可以适应不同视角的变化. 比如第1行的第8个样本具有和被检索车辆完全不重合的视角,仍然被正确地检索出来. 最后一行的被检索样本,具有复杂背景,但是所有检索结果都是正确的. 若不采用本研究的算法,这些样本均不能被正确检索到. ...