[1]
VACAVANT A, CHATUAU T, WILHELM A, et al. A benchmark dataset for outdoor foreground/background extraction[C]// Asian Conference on Computer Vision . [S. l.]: Springer, 2012: 291-300.
[本文引用: 1]
[2]
STAUFFER C, GRIMSON W E L. Adaptive background mixture models for real-time tracking [C]// IEEE Computer Society Conference on Computer Vision and Pattern Recognition . [S. l.]: IEEE, 1999: 246-252.
[本文引用: 3]
[3]
ELGAMMAL A, DURAISWAMI R, HARWOOD D, et al Background and foreground modeling using nonparametric kernel density estimation for visual surveillance
[J]. Proceedings of the IEEE , 2002 , 90 (7 ): 1151 - 1163
DOI:10.1109/JPROC.2002.801448
[本文引用: 2]
[4]
JODOIN P M, MIGNOTTE M, KONRAD J Statistical background subtraction using spatial cues
[J]. IEEE Transactions on Circuits and Systems for Video Technology , 2007 , 17 (12 ): 1758 - 1763
DOI:10.1109/TCSVT.2007.906935
[本文引用: 1]
[5]
BARNICH O, DROOGENBROECK M V ViBe: a universal background subtraction algorithm for video sequences
[J]. IEEE Transactions on Image Processing , 2011 , 20 (6 ): 1709 - 1724
DOI:10.1109/TIP.2010.2101613
[6]
ST-CHARLES P L, BILODEAU G A, BERGEVIN R SuBSENSE: a universal change detection method with local adaptive sensitivity
[J]. IEEE Transactions on Image Processing , 2014 , 24 (1 ): 359 - 373
[本文引用: 3]
[7]
LIANG D, KANEKO S, HASHIMOTO M, et al Co-occurrence probability-based pixel pairs background model for robust object detection in dynamic scenes
[J]. Pattern Recognition , 2015 , 48 (4 ): 1374 - 1390
DOI:10.1016/j.patcog.2014.10.020
[本文引用: 1]
[8]
MARTINS I, CARVALHO P, CORTE-REAL, et al BMOG: boosted Gaussian mixture model with controlled complexity for background subtraction
[J]. Pattern Analysis and Applications , 2018 , 21 (3 ): 641 - 654
DOI:10.1007/s10044-018-0699-y
[本文引用: 2]
[9]
BRAHAM M, DROOGENBROECK M V. Deep background subtraction with scene-specific convolutional neural networks [C]// 2016 International Conference on Systems, Signals and Image Processing . [S. l.]: IEEE, 2016.
[本文引用: 4]
[10]
BABAEE M, DINH D T, RIGOLL G. A deep convolutional neural network for background subtraction [EB/OL]. [2019-09-30]. https://arxiv.org/pdf/1702.01731.pdf.
[本文引用: 2]
[11]
SHI G, HUANG T, DONG W, et al Robust foreground estimation via structured gaussian scale mixture modeling
[J]. IEEE Transactions on Image Processing , 2018 , 27 (10 ): 4810 - 4824
DOI:10.1109/TIP.2018.2845123
[本文引用: 2]
[12]
WANG Y, LUO Z, JODOIN P, et al Interactive deep learning method for segmenting moving objects
[J]. Pattern Recognition Letters , 2017 , 96 : 66 - 75
[本文引用: 4]
[13]
ZHAO C, CHAM T, REN X, et al. Background subtraction based on deep pixel distribution learning [C]// 2018 IEEE International Conference on Multimedia and Expo . [S. l.]: IEEE, 2018: 1-6.
[本文引用: 2]
[14]
LIM L A, KELES H Y Foreground segmentation using convolutional neural networks for multiscale feature encoding
[J]. Pattern Recognition Letters , 2018 , 112 : 256 - 262
DOI:10.1016/j.patrec.2018.08.002
[本文引用: 5]
[15]
LIM L A, KELES H Y Learning multi-scale features for foreground segmentation
[J]. Pattern Analysis and Applications , 2019 , 23 (3 ): 1369 - 1380
[本文引用: 1]
[16]
QIU M, LI X A fully convolutional encoder-decoder spatial-temporal network for real-time background subtraction
[J]. IEEE Access , 2019 , 7 : 85949 - 85958
[本文引用: 1]
[17]
ZHOU W, KANEKO S, LIANG D, et al Background subtraction based on co-occurrence pixel-block pairs for robust object detection in dynamic scenes
[J]. IIEEJ Transactions on Image Electronics and Visual Computing , 2018 , 5 (2 ): 146 - 159
[本文引用: 6]
[18]
ZHOU W, KANEKO S, HASHIMOTO M, et al. A co-occurrence background model with hypothesis on degradation modification for object detection in strong background changes [C]// 2018 24th International Conference on Pattern Recognition. [S. l.]: IEEE, 2018: 1743-1748.
[19]
ZHOU W, KANEKO S, HASHIMOTO M, et al Foreground detection based on co-occurrence background model with hypothesis on degradation modification in dynamic scenes
[J]. Signal Processing , 2019 , 160 : 66 - 79
DOI:10.1016/j.sigpro.2019.02.021
[20]
ZHOU W, KANEKO S, SATOH Y, et al. Co-occurrence based foreground detection with hypothesis on degradation modification in severe imaging conditions [C] // Proceedings of JSPE Semestrial Meeting 2018 JSPE Autumn Conference . [S. l.]: JSPE, 2018: 624-625.
[本文引用: 1]
[21]
ZHAO X, SATOH Y, TAKAUJI H, et al Object detection based on a robust and accurate statistical multi-point-pair model
[J]. Pattern Recognition , 2011 , 44 (6 ): 1296 - 1311
DOI:10.1016/j.patcog.2010.11.022
[本文引用: 1]
[22]
LIANG D, PAN J, SUN H, et al Spatio-temporal attention model for foreground detection in cross-scene surveillance videos
[J]. Sensors , 2019 , 19 (23 ): 5142
DOI:10.3390/s19235142
[本文引用: 6]
[23]
LAROCHELLE H, HINTON G. Learning to combine foveal glimpses with a third-order boltzmann machine [C]// Advances in Neural Information Processing Systems 23: Conference on Neural Information Processing Systems A Meeting Held December. [S. l.]: Curran Associates Inc, 2010: 1243–1251.
[本文引用: 2]
[24]
KIM J, LEE S, KWAK D, et al. Multimodal residual learning for visual QA [C]// Neural Information Processing Systems . [S. l.]: MIT Press, 2016: 361-369.
[本文引用: 1]
[25]
MNIH V, HEESS N, GRAVES A. Recurrent models of visual attention [C]// Neural Information Processing Systems . [S. l.]: MIT Press, 2014, 2: 2204-2212.
[本文引用: 1]
[26]
XU K, BA J, KIROS R, et al Show, attend and tell: neural image caption generation with visual attention
[J]. International Conference on Machine Learning , 2015 , 3 : 2048 - 2057
[本文引用: 1]
[27]
LI H, XIONG P, AN J, et al. Pyramid attention network for semantic segmentation [EB/OL]. [2019-09-30]. https://arxiv.org/pdf/1805.10180.pdf.
[本文引用: 1]
[28]
Liu C. Beyond pixels: exploring new representations and applications for motion analysis [D]. Cambridge: MIT, 2009.
[本文引用: 1]
[29]
GOYRTTE N, JODOIN P M, PORIKLI F, et al. Changedetection. net: a new change detection benchmark dataset [C]// 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. [S. l.]: IEEE, 2012: 1-8.
[本文引用: 1]
[30]
TOYAMMA K, KRUMM J, BRUMITT B, et al. Wallflower: principles and practice of background maintenance [C]// Proceedings of the Seventh IEEE International Conference on computer vision. [S. l.]: IEEE, 1999: 255-261.
[本文引用: 1]
[31]
Laboratory for image and media understanding [DB/OL]. [2019-09-30]. http://limu.ait.kyushu-u.ac.jp/dataset/en/ .
[本文引用: 1]
[32]
HOFMANN M, TIEFENBACHER P, RIGOLL G. Background segmentation with feedback: the pixel-based adaptive segmenter [C]// 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. [S. l.]: IEEE, 2012: 38-43.
[本文引用: 1]
1
... 前景分割在智能视频监控中发挥着重要的作用[1 ] . 传统的前景分割方法通常依赖建立背景统计模型. 例如Stauffer等[2 ] 提出的混合高斯模型(Gaussian mixture model,GMM)或Elgammal等[3 ] 提出的无参数的核密度估计模型(kernel density estimation,KDE). 这种大样本训练框架带来的主要问题是模型在特征空间中往往覆盖较大的范围,一旦目标物的特征值处于该区间范围,将被判定为背景而无法被正确检出. ...
3
... 前景分割在智能视频监控中发挥着重要的作用[1 ] . 传统的前景分割方法通常依赖建立背景统计模型. 例如Stauffer等[2 ] 提出的混合高斯模型(Gaussian mixture model,GMM)或Elgammal等[3 ] 提出的无参数的核密度估计模型(kernel density estimation,KDE). 这种大样本训练框架带来的主要问题是模型在特征空间中往往覆盖较大的范围,一旦目标物的特征值处于该区间范围,将被判定为背景而无法被正确检出. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...
Background and foreground modeling using nonparametric kernel density estimation for visual surveillance
2
2002
... 前景分割在智能视频监控中发挥着重要的作用[1 ] . 传统的前景分割方法通常依赖建立背景统计模型. 例如Stauffer等[2 ] 提出的混合高斯模型(Gaussian mixture model,GMM)或Elgammal等[3 ] 提出的无参数的核密度估计模型(kernel density estimation,KDE). 这种大样本训练框架带来的主要问题是模型在特征空间中往往覆盖较大的范围,一旦目标物的特征值处于该区间范围,将被判定为背景而无法被正确检出. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
Statistical background subtraction using spatial cues
1
2007
... Jodoin等[4 -6 ] 考虑到中心像素与相邻像素的空间上下文关系,构建了基于局部邻域特征的背景模型. 这类模型局限于挖掘局部的空间关系,在纹理稀缺背景下表现欠佳. Liang等[7 ] 利用空间像素间特征值变化的关联信息,构建了共现像素对模型(co-occurrence probablity-based pixel pairs,CP3). 该技术借助空间像素间的相对变化来分割运动目标,使背景模型能够在一定程度上自动地适应背景的波动,进而使分割更为精确. Martins等[8 ] 提出的背景差分方法在保证分割精确性的同时,也将方法的计算时间复杂度纳入考量,注重了分割的实时性. ...
ViBe: a universal background subtraction algorithm for video sequences
0
2011
SuBSENSE: a universal change detection method with local adaptive sensitivity
3
2014
... Jodoin等[4 -6 ] 考虑到中心像素与相邻像素的空间上下文关系,构建了基于局部邻域特征的背景模型. 这类模型局限于挖掘局部的空间关系,在纹理稀缺背景下表现欠佳. Liang等[7 ] 利用空间像素间特征值变化的关联信息,构建了共现像素对模型(co-occurrence probablity-based pixel pairs,CP3). 该技术借助空间像素间的相对变化来分割运动目标,使背景模型能够在一定程度上自动地适应背景的波动,进而使分割更为精确. Martins等[8 ] 提出的背景差分方法在保证分割精确性的同时,也将方法的计算时间复杂度纳入考量,注重了分割的实时性. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...
Co-occurrence probability-based pixel pairs background model for robust object detection in dynamic scenes
1
2015
... Jodoin等[4 -6 ] 考虑到中心像素与相邻像素的空间上下文关系,构建了基于局部邻域特征的背景模型. 这类模型局限于挖掘局部的空间关系,在纹理稀缺背景下表现欠佳. Liang等[7 ] 利用空间像素间特征值变化的关联信息,构建了共现像素对模型(co-occurrence probablity-based pixel pairs,CP3). 该技术借助空间像素间的相对变化来分割运动目标,使背景模型能够在一定程度上自动地适应背景的波动,进而使分割更为精确. Martins等[8 ] 提出的背景差分方法在保证分割精确性的同时,也将方法的计算时间复杂度纳入考量,注重了分割的实时性. ...
BMOG: boosted Gaussian mixture model with controlled complexity for background subtraction
2
2018
... Jodoin等[4 -6 ] 考虑到中心像素与相邻像素的空间上下文关系,构建了基于局部邻域特征的背景模型. 这类模型局限于挖掘局部的空间关系,在纹理稀缺背景下表现欠佳. Liang等[7 ] 利用空间像素间特征值变化的关联信息,构建了共现像素对模型(co-occurrence probablity-based pixel pairs,CP3). 该技术借助空间像素间的相对变化来分割运动目标,使背景模型能够在一定程度上自动地适应背景的波动,进而使分割更为精确. Martins等[8 ] 提出的背景差分方法在保证分割精确性的同时,也将方法的计算时间复杂度纳入考量,注重了分割的实时性. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
4
... Braham等[9 -10 ] 提出基于卷积神经网络的前景分割方法,它们只能处理具体场景,对于其他场景则需要再训练. 近3年来对于前景分割的研究主要集中于对传统统计背景建模方法的改进以及利用深度学习的方法直接进行前景分割[11 -13 ] . Lim等[14 -15 ] 使用3组CNN编码器对同一输入图像的3种不同尺度进行特征编码,并使用TCNN(transposed convolutional neural network)对多尺度特征进行解码,得到像素级前景分割掩模. Qiu等[16 ] 使用基于convLSTM的网络来捕捉连续帧之间的空间和时间维度特征. 此外,基于卷积神经网络的前景分割方法存在的普遍问题在于,其性能表现严重依赖于训练数据的标注规模和质量. 众所周知,分割任务的训练样本需逐帧人工标注,标注代价高,难以实现新场景的快速标注和训练,严重限制了此类方法在视频监控任务中的大规模应用. ...
... STAM模型结合时空信息,并利用注意力模块将编码器与解码器的特征融合. 如图3 所示,图像编码器与光流编码器是2个结构相同的编码器,共有8个卷积层,分别以静态图像和相邻图像的光流强度场[28 ] 作为输入,加号表示像素级加法. 解码器为8层,卷积步长为2,每层进行上采样处理,应用7个注意力模块进行融合,注意力模块卷积步长为1. 真实场景中的物理运动可以用运动场描述,在平面图像上物体的运动往往是通过图像序列中不同图像灰度分布的不同来体现的. 光流场是像素点在图像平面运动产生的瞬时速度场,很适合描述帧间的时域上下文关系. 该模型将光流强度场与静态图像并行输入网络,以此引入帧间上下文信息,比基于单帧图像分割的方法[9 -10 ] 更合理. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...
2
... Braham等[9 -10 ] 提出基于卷积神经网络的前景分割方法,它们只能处理具体场景,对于其他场景则需要再训练. 近3年来对于前景分割的研究主要集中于对传统统计背景建模方法的改进以及利用深度学习的方法直接进行前景分割[11 -13 ] . Lim等[14 -15 ] 使用3组CNN编码器对同一输入图像的3种不同尺度进行特征编码,并使用TCNN(transposed convolutional neural network)对多尺度特征进行解码,得到像素级前景分割掩模. Qiu等[16 ] 使用基于convLSTM的网络来捕捉连续帧之间的空间和时间维度特征. 此外,基于卷积神经网络的前景分割方法存在的普遍问题在于,其性能表现严重依赖于训练数据的标注规模和质量. 众所周知,分割任务的训练样本需逐帧人工标注,标注代价高,难以实现新场景的快速标注和训练,严重限制了此类方法在视频监控任务中的大规模应用. ...
... STAM模型结合时空信息,并利用注意力模块将编码器与解码器的特征融合. 如图3 所示,图像编码器与光流编码器是2个结构相同的编码器,共有8个卷积层,分别以静态图像和相邻图像的光流强度场[28 ] 作为输入,加号表示像素级加法. 解码器为8层,卷积步长为2,每层进行上采样处理,应用7个注意力模块进行融合,注意力模块卷积步长为1. 真实场景中的物理运动可以用运动场描述,在平面图像上物体的运动往往是通过图像序列中不同图像灰度分布的不同来体现的. 光流场是像素点在图像平面运动产生的瞬时速度场,很适合描述帧间的时域上下文关系. 该模型将光流强度场与静态图像并行输入网络,以此引入帧间上下文信息,比基于单帧图像分割的方法[9 -10 ] 更合理. ...
Robust foreground estimation via structured gaussian scale mixture modeling
2
2018
... Braham等[9 -10 ] 提出基于卷积神经网络的前景分割方法,它们只能处理具体场景,对于其他场景则需要再训练. 近3年来对于前景分割的研究主要集中于对传统统计背景建模方法的改进以及利用深度学习的方法直接进行前景分割[11 -13 ] . Lim等[14 -15 ] 使用3组CNN编码器对同一输入图像的3种不同尺度进行特征编码,并使用TCNN(transposed convolutional neural network)对多尺度特征进行解码,得到像素级前景分割掩模. Qiu等[16 ] 使用基于convLSTM的网络来捕捉连续帧之间的空间和时间维度特征. 此外,基于卷积神经网络的前景分割方法存在的普遍问题在于,其性能表现严重依赖于训练数据的标注规模和质量. 众所周知,分割任务的训练样本需逐帧人工标注,标注代价高,难以实现新场景的快速标注和训练,严重限制了此类方法在视频监控任务中的大规模应用. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
Interactive deep learning method for segmenting moving objects
4
2017
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...
... Specifity of different methods on Moved Object of Wallflower
Tab.5 场景 Specifity SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Moved Object 0.997 7 0.994 9 0.773 6 0.847 0 0.892 2
对于LIMU数据集,在Camera Parameter、Intersection和Light Switch场景中进行方法对比,实验数据见表6 ,检测效果如图8 所示. 在这3个场景中,SU-CPB的F-measure比其他方法高,平均比STAM高31.54%,比CPB高11.37%. ...
... F-measure of different methods on LIMU under different scenes
Tab.6 场景 F-measure SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Camera Parameter 0.748 4 0.674 2 0.102 5 0.266 8 0.654 5 Intersection 0.767 2 0.623 7 0.045 3 0.142 8 0.677 8 Light Switch 0.821 1 0.095 3 0.027 7 0.041 4 0.663 3 Overall 0.778 9 0.464 4 0.058 5 0.150 3 0.665 2
图 8 不同方法在LIMU数据集不同场景中的检测效果对比 ...
2
... Braham等[9 -10 ] 提出基于卷积神经网络的前景分割方法,它们只能处理具体场景,对于其他场景则需要再训练. 近3年来对于前景分割的研究主要集中于对传统统计背景建模方法的改进以及利用深度学习的方法直接进行前景分割[11 -13 ] . Lim等[14 -15 ] 使用3组CNN编码器对同一输入图像的3种不同尺度进行特征编码,并使用TCNN(transposed convolutional neural network)对多尺度特征进行解码,得到像素级前景分割掩模. Qiu等[16 ] 使用基于convLSTM的网络来捕捉连续帧之间的空间和时间维度特征. 此外,基于卷积神经网络的前景分割方法存在的普遍问题在于,其性能表现严重依赖于训练数据的标注规模和质量. 众所周知,分割任务的训练样本需逐帧人工标注,标注代价高,难以实现新场景的快速标注和训练,严重限制了此类方法在视频监控任务中的大规模应用. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
Foreground segmentation using convolutional neural networks for multiscale feature encoding
5
2018
... Braham等[9 -10 ] 提出基于卷积神经网络的前景分割方法,它们只能处理具体场景,对于其他场景则需要再训练. 近3年来对于前景分割的研究主要集中于对传统统计背景建模方法的改进以及利用深度学习的方法直接进行前景分割[11 -13 ] . Lim等[14 -15 ] 使用3组CNN编码器对同一输入图像的3种不同尺度进行特征编码,并使用TCNN(transposed convolutional neural network)对多尺度特征进行解码,得到像素级前景分割掩模. Qiu等[16 ] 使用基于convLSTM的网络来捕捉连续帧之间的空间和时间维度特征. 此外,基于卷积神经网络的前景分割方法存在的普遍问题在于,其性能表现严重依赖于训练数据的标注规模和质量. 众所周知,分割任务的训练样本需逐帧人工标注,标注代价高,难以实现新场景的快速标注和训练,严重限制了此类方法在视频监控任务中的大规模应用. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...
... Specifity of different methods on Moved Object of Wallflower
Tab.5 场景 Specifity SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Moved Object 0.997 7 0.994 9 0.773 6 0.847 0 0.892 2
对于LIMU数据集,在Camera Parameter、Intersection和Light Switch场景中进行方法对比,实验数据见表6 ,检测效果如图8 所示. 在这3个场景中,SU-CPB的F-measure比其他方法高,平均比STAM高31.54%,比CPB高11.37%. ...
... F-measure of different methods on LIMU under different scenes
Tab.6 场景 F-measure SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Camera Parameter 0.748 4 0.674 2 0.102 5 0.266 8 0.654 5 Intersection 0.767 2 0.623 7 0.045 3 0.142 8 0.677 8 Light Switch 0.821 1 0.095 3 0.027 7 0.041 4 0.663 3 Overall 0.778 9 0.464 4 0.058 5 0.150 3 0.665 2
图 8 不同方法在LIMU数据集不同场景中的检测效果对比 ...
Learning multi-scale features for foreground segmentation
1
2019
... Braham等[9 -10 ] 提出基于卷积神经网络的前景分割方法,它们只能处理具体场景,对于其他场景则需要再训练. 近3年来对于前景分割的研究主要集中于对传统统计背景建模方法的改进以及利用深度学习的方法直接进行前景分割[11 -13 ] . Lim等[14 -15 ] 使用3组CNN编码器对同一输入图像的3种不同尺度进行特征编码,并使用TCNN(transposed convolutional neural network)对多尺度特征进行解码,得到像素级前景分割掩模. Qiu等[16 ] 使用基于convLSTM的网络来捕捉连续帧之间的空间和时间维度特征. 此外,基于卷积神经网络的前景分割方法存在的普遍问题在于,其性能表现严重依赖于训练数据的标注规模和质量. 众所周知,分割任务的训练样本需逐帧人工标注,标注代价高,难以实现新场景的快速标注和训练,严重限制了此类方法在视频监控任务中的大规模应用. ...
A fully convolutional encoder-decoder spatial-temporal network for real-time background subtraction
1
2019
... Braham等[9 -10 ] 提出基于卷积神经网络的前景分割方法,它们只能处理具体场景,对于其他场景则需要再训练. 近3年来对于前景分割的研究主要集中于对传统统计背景建模方法的改进以及利用深度学习的方法直接进行前景分割[11 -13 ] . Lim等[14 -15 ] 使用3组CNN编码器对同一输入图像的3种不同尺度进行特征编码,并使用TCNN(transposed convolutional neural network)对多尺度特征进行解码,得到像素级前景分割掩模. Qiu等[16 ] 使用基于convLSTM的网络来捕捉连续帧之间的空间和时间维度特征. 此外,基于卷积神经网络的前景分割方法存在的普遍问题在于,其性能表现严重依赖于训练数据的标注规模和质量. 众所周知,分割任务的训练样本需逐帧人工标注,标注代价高,难以实现新场景的快速标注和训练,严重限制了此类方法在视频监控任务中的大规模应用. ...
Background subtraction based on co-occurrence pixel-block pairs for robust object detection in dynamic scenes
6
2018
... 为了解决上述问题,本文提出一种更加鲁棒的自更新像素共现模型(self-updating co-occurrence pixel-block model,SU-CPB),用于动态背景下跨场景的前景分割. 以Zhou等[17 -20 ] 提出的像素-支持块共现模型(co-occurrence pixel-block model,CPB)作为本文的基础,其前期相关工作包括CP3与Zhao等[21 ] 提出的灰度排列对模型(grayscale arranging pairs,GAP). 与CP3模型类似,CPB训练过程依赖像素间线性相关性的计算,给背景模型的在线更新造成困难. 在近期的研究中,Liang等[22 ] 提出时空注意力模型(spatio-temporal attention model,STAM)并将其应用于跨场景的前景分割. 在本文中,引入了STAM作为分割指导,完成了SU-CPB模型的构建. 该方法在一些困难场景下显著优于CPB模型,并在跨场景对比实验中优于其他参与对比的方法. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...
... Specifity of different methods on Moved Object of Wallflower
Tab.5 场景 Specifity SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Moved Object 0.997 7 0.994 9 0.773 6 0.847 0 0.892 2
对于LIMU数据集,在Camera Parameter、Intersection和Light Switch场景中进行方法对比,实验数据见表6 ,检测效果如图8 所示. 在这3个场景中,SU-CPB的F-measure比其他方法高,平均比STAM高31.54%,比CPB高11.37%. ...
... F-measure of different methods on LIMU under different scenes
Tab.6 场景 F-measure SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Camera Parameter 0.748 4 0.674 2 0.102 5 0.266 8 0.654 5 Intersection 0.767 2 0.623 7 0.045 3 0.142 8 0.677 8 Light Switch 0.821 1 0.095 3 0.027 7 0.041 4 0.663 3 Overall 0.778 9 0.464 4 0.058 5 0.150 3 0.665 2
图 8 不同方法在LIMU数据集不同场景中的检测效果对比 ...
... F-measure of SU-CPB method under different stage on different scenes of LIMU
Tab.7 场景 F-measure CPB[17 ] CPBDT SU-CPB Camera Parameter 0.654 5 0.715 9 0.748 4 Intersection 0.677 8 0.690 8 0.767 2 Light Switch 0.663 3 0.642 5 0.821 1 Overall 0.665 2 0.683 1 0.778 9
6. 结 语 本文在CPB模型的基础上,利用STAM分割结果作为指导,完成了对CPB模型的像素-支持块共现模型的在线更新. 实验表明,SU-CPB在实验数据集上提升了CPB的性能,解决了CPB在处理复杂场景时出现的一些问题:大目标物体进入场景、大范围的天气云朵变化、静止物体移动后留下的“鬼影”等. SU-CPB方法在跨场景前景分割能力上显著优于 STAM 和 CPB 方法 ,并优于参与对比的其他方法. 未来将进一步探讨该方法中STAM模块的可替换性以及应用不同方法作为分割指导后的相应对比. ...
Foreground detection based on co-occurrence background model with hypothesis on degradation modi?cation in dynamic scenes
0
2019
1
... 为了解决上述问题,本文提出一种更加鲁棒的自更新像素共现模型(self-updating co-occurrence pixel-block model,SU-CPB),用于动态背景下跨场景的前景分割. 以Zhou等[17 -20 ] 提出的像素-支持块共现模型(co-occurrence pixel-block model,CPB)作为本文的基础,其前期相关工作包括CP3与Zhao等[21 ] 提出的灰度排列对模型(grayscale arranging pairs,GAP). 与CP3模型类似,CPB训练过程依赖像素间线性相关性的计算,给背景模型的在线更新造成困难. 在近期的研究中,Liang等[22 ] 提出时空注意力模型(spatio-temporal attention model,STAM)并将其应用于跨场景的前景分割. 在本文中,引入了STAM作为分割指导,完成了SU-CPB模型的构建. 该方法在一些困难场景下显著优于CPB模型,并在跨场景对比实验中优于其他参与对比的方法. ...
Object detection based on a robust and accurate statistical multi-point-pair model
1
2011
... 为了解决上述问题,本文提出一种更加鲁棒的自更新像素共现模型(self-updating co-occurrence pixel-block model,SU-CPB),用于动态背景下跨场景的前景分割. 以Zhou等[17 -20 ] 提出的像素-支持块共现模型(co-occurrence pixel-block model,CPB)作为本文的基础,其前期相关工作包括CP3与Zhao等[21 ] 提出的灰度排列对模型(grayscale arranging pairs,GAP). 与CP3模型类似,CPB训练过程依赖像素间线性相关性的计算,给背景模型的在线更新造成困难. 在近期的研究中,Liang等[22 ] 提出时空注意力模型(spatio-temporal attention model,STAM)并将其应用于跨场景的前景分割. 在本文中,引入了STAM作为分割指导,完成了SU-CPB模型的构建. 该方法在一些困难场景下显著优于CPB模型,并在跨场景对比实验中优于其他参与对比的方法. ...
Spatio-temporal attention model for foreground detection in cross-scene surveillance videos
6
2019
... 为了解决上述问题,本文提出一种更加鲁棒的自更新像素共现模型(self-updating co-occurrence pixel-block model,SU-CPB),用于动态背景下跨场景的前景分割. 以Zhou等[17 -20 ] 提出的像素-支持块共现模型(co-occurrence pixel-block model,CPB)作为本文的基础,其前期相关工作包括CP3与Zhao等[21 ] 提出的灰度排列对模型(grayscale arranging pairs,GAP). 与CP3模型类似,CPB训练过程依赖像素间线性相关性的计算,给背景模型的在线更新造成困难. 在近期的研究中,Liang等[22 ] 提出时空注意力模型(spatio-temporal attention model,STAM)并将其应用于跨场景的前景分割. 在本文中,引入了STAM作为分割指导,完成了SU-CPB模型的构建. 该方法在一些困难场景下显著优于CPB模型,并在跨场景对比实验中优于其他参与对比的方法. ...
... F-measure of different methods on CDNet2014
Tab.2 序号 算法 F-measure BDW BSL CJT DBG IOM SHD THM TBL LFR NVD PTZ 1 SU-CPB 0.867 0.907 0.853 0.924 0.760 0.910 0.969 0.895 0.449 0.558 0.753 2 CPB[17 ] 0.475 0.519 0.597 0.477 0.348 0.581 0.372 0.459 0.170 0.277 0.161 3 SuBSENSE[6 ] 0.862 0.950 0.815 0.818 0.657 0.865 0.817 0.779 0.645 0.560 0.348 4 KDE[3 ] 0.757 0.909 0.572 0.596 0.409 0.803 0.742 0.448 0.548 0.437 0.037 5 GMM[2 ] 0.738 0.825 0.597 0.633 0.521 0.732 0.662 0.466 0.537 0.410 0.152 6 BMOG[8 ] 0.784 0.830 0.749 0.793 0.529 0.840 0.635 0.693 0.610 0.498 0.235 7 SGSM-BS[11 ] 0.856 0.950 0.820 0.848 0.819 0.890 0.850 0.850 0.750 0.510 − 8 STAM[22 ] 0.970 0.989 0.899 0.948 0.916 0.966 0.991 0.933 0.668 0.710 0.865 9 DeepBS[9 ] 0.830 0.958 0.899 0.876 0.610 0.930 0.758 0.846 0.600 0.584 0.313 10 CascadeCNN[12 ] 0.943 0.979 0.976 0.966 0.851 0.941 0.896 0.911 0.837 0.897 0.917 11 DPDL[13 ] 0.869 0.969 0.866 0.869 0.876 0.936 0.838 0.764 0.708 0.611 0.609 12 FgSegNet[14 ] 0.984 0.998 0.995 0.994 0.993 0.995 0.992 0.978 0.956 0.978 0.989
当参照CPB方法作对比时,由于统一采用小训练集(相对CPB方法的要求而言),CPB此时的F-measure较低见表2 ,表现不够稳定. 相比之下,SU-CPB在小训练集的情况下,实现了性能的提高,在CDNet数据集上比CPB方法的F-measure平均提高了0.4. 由于大部分P-B对失效,CPB方法在复杂场景(天气云朵大范围变化或大运动目标进入等)中会出现大面积的false positive检测结果,SU-CPB对这种情况有明显的鲁棒性. 对比结果如图7 所示. 图中,parking场景为大范围辐射背景下的云朵漂移,abandoned box场景和fall场景为大目标物运动. ...
... Comparison of proposed method with STAM on specific training sets
Tab.3 场景 F-measure SU-CPB STAM[22 ] PETS2006 0.957 0 0.956 3 traffic 0.835 0 0.834 9 fountain02 0.934 0 0.933 5 abandoned box 0.820 6 0.812 3 parking 0.764 1 0.763 3
为了评估SU-CPB在跨场景下的泛化能力,使用Wall Flower和LIMU数据集下的总共10个场景进行对比实验. 其中STAM、Cascade CNN和FgSegNet 3种监督方法均为同一实验设置,即在CDNet2014中随机选取5%的图片与其真值训练,并在Wallflower与LIMU共10个场景中进行跨场景的前景检测. ...
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...
... Specifity of different methods on Moved Object of Wallflower
Tab.5 场景 Specifity SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Moved Object 0.997 7 0.994 9 0.773 6 0.847 0 0.892 2
对于LIMU数据集,在Camera Parameter、Intersection和Light Switch场景中进行方法对比,实验数据见表6 ,检测效果如图8 所示. 在这3个场景中,SU-CPB的F-measure比其他方法高,平均比STAM高31.54%,比CPB高11.37%. ...
... F-measure of different methods on LIMU under different scenes
Tab.6 场景 F-measure SU-CPB STAM[22 ] CascadeCNN[12 ] FgSegNet[14 ] CPB[17 ] Camera Parameter 0.748 4 0.674 2 0.102 5 0.266 8 0.654 5 Intersection 0.767 2 0.623 7 0.045 3 0.142 8 0.677 8 Light Switch 0.821 1 0.095 3 0.027 7 0.041 4 0.663 3 Overall 0.778 9 0.464 4 0.058 5 0.150 3 0.665 2
图 8 不同方法在LIMU数据集不同场景中的检测效果对比 ...
2
... 注意力机制启发于人类的感知过程,人脑的注意力机制在特定时刻总是集中在场景局部而忽略其他部分,该注意力机制可以等效于一个资源分配模型. 目前,已有将注意力机制用于深度神经网络的初步尝试,深度玻尔兹曼机(DBM)[23 ] 在训练阶段通过重构过程包含了自上而下的注意力机制;注意力机制也被广泛应用于循环神经网络(RNN)和长短期记忆网络(LSTM)中,以处理顺序决策任务[23 -24 ] . 顶层信息被顺序采集并决定如何应用于接下来的特征学习,时序过程[25 -26 ] 将以顺序决策建模图像分类问题. 这一架构允许使用RNN和LSTM进行端到端的优化,能够以目标驱动的方式获得不同类型的注意力. Li等[27 ] 提出的金字塔注意力语义分割模型包含特征金字塔与全局注意力. ...
... [23 -24 ]. 顶层信息被顺序采集并决定如何应用于接下来的特征学习,时序过程[25 -26 ] 将以顺序决策建模图像分类问题. 这一架构允许使用RNN和LSTM进行端到端的优化,能够以目标驱动的方式获得不同类型的注意力. Li等[27 ] 提出的金字塔注意力语义分割模型包含特征金字塔与全局注意力. ...
1
... 注意力机制启发于人类的感知过程,人脑的注意力机制在特定时刻总是集中在场景局部而忽略其他部分,该注意力机制可以等效于一个资源分配模型. 目前,已有将注意力机制用于深度神经网络的初步尝试,深度玻尔兹曼机(DBM)[23 ] 在训练阶段通过重构过程包含了自上而下的注意力机制;注意力机制也被广泛应用于循环神经网络(RNN)和长短期记忆网络(LSTM)中,以处理顺序决策任务[23 -24 ] . 顶层信息被顺序采集并决定如何应用于接下来的特征学习,时序过程[25 -26 ] 将以顺序决策建模图像分类问题. 这一架构允许使用RNN和LSTM进行端到端的优化,能够以目标驱动的方式获得不同类型的注意力. Li等[27 ] 提出的金字塔注意力语义分割模型包含特征金字塔与全局注意力. ...
1
... 注意力机制启发于人类的感知过程,人脑的注意力机制在特定时刻总是集中在场景局部而忽略其他部分,该注意力机制可以等效于一个资源分配模型. 目前,已有将注意力机制用于深度神经网络的初步尝试,深度玻尔兹曼机(DBM)[23 ] 在训练阶段通过重构过程包含了自上而下的注意力机制;注意力机制也被广泛应用于循环神经网络(RNN)和长短期记忆网络(LSTM)中,以处理顺序决策任务[23 -24 ] . 顶层信息被顺序采集并决定如何应用于接下来的特征学习,时序过程[25 -26 ] 将以顺序决策建模图像分类问题. 这一架构允许使用RNN和LSTM进行端到端的优化,能够以目标驱动的方式获得不同类型的注意力. Li等[27 ] 提出的金字塔注意力语义分割模型包含特征金字塔与全局注意力. ...
Show, attend and tell: neural image caption generation with visual attention
1
2015
... 注意力机制启发于人类的感知过程,人脑的注意力机制在特定时刻总是集中在场景局部而忽略其他部分,该注意力机制可以等效于一个资源分配模型. 目前,已有将注意力机制用于深度神经网络的初步尝试,深度玻尔兹曼机(DBM)[23 ] 在训练阶段通过重构过程包含了自上而下的注意力机制;注意力机制也被广泛应用于循环神经网络(RNN)和长短期记忆网络(LSTM)中,以处理顺序决策任务[23 -24 ] . 顶层信息被顺序采集并决定如何应用于接下来的特征学习,时序过程[25 -26 ] 将以顺序决策建模图像分类问题. 这一架构允许使用RNN和LSTM进行端到端的优化,能够以目标驱动的方式获得不同类型的注意力. Li等[27 ] 提出的金字塔注意力语义分割模型包含特征金字塔与全局注意力. ...
1
... 注意力机制启发于人类的感知过程,人脑的注意力机制在特定时刻总是集中在场景局部而忽略其他部分,该注意力机制可以等效于一个资源分配模型. 目前,已有将注意力机制用于深度神经网络的初步尝试,深度玻尔兹曼机(DBM)[23 ] 在训练阶段通过重构过程包含了自上而下的注意力机制;注意力机制也被广泛应用于循环神经网络(RNN)和长短期记忆网络(LSTM)中,以处理顺序决策任务[23 -24 ] . 顶层信息被顺序采集并决定如何应用于接下来的特征学习,时序过程[25 -26 ] 将以顺序决策建模图像分类问题. 这一架构允许使用RNN和LSTM进行端到端的优化,能够以目标驱动的方式获得不同类型的注意力. Li等[27 ] 提出的金字塔注意力语义分割模型包含特征金字塔与全局注意力. ...
1
... STAM模型结合时空信息,并利用注意力模块将编码器与解码器的特征融合. 如图3 所示,图像编码器与光流编码器是2个结构相同的编码器,共有8个卷积层,分别以静态图像和相邻图像的光流强度场[28 ] 作为输入,加号表示像素级加法. 解码器为8层,卷积步长为2,每层进行上采样处理,应用7个注意力模块进行融合,注意力模块卷积步长为1. 真实场景中的物理运动可以用运动场描述,在平面图像上物体的运动往往是通过图像序列中不同图像灰度分布的不同来体现的. 光流场是像素点在图像平面运动产生的瞬时速度场,很适合描述帧间的时域上下文关系. 该模型将光流强度场与静态图像并行输入网络,以此引入帧间上下文信息,比基于单帧图像分割的方法[9 -10 ] 更合理. ...
1
... CDNet2014[29 ] 包含大量不同场景的数据集,可以用于前景分割的训练和测评. 本文在CDNet2014数据集上的实验环境如下:1)在数据集充足的前提下,选择前400张前景占比小的或者没有明显前景的图片作为训练集;2)对前景占比高的数据集,尽量从它的前20%中选择前景占比低的图片作为训练集. 本文的CPB实验数据在该实验环境下给出. ...
1
... STAM模型是在CDNet2014数据集上随机选取5%的图片与其真值进行训练得到的. 为验证对比所有方法的跨场景泛化能力,采用Wallflower[30 ] 与LIMU[31 ] 2个数据集. SU-CPB方法在Wallflower采用数据集规定的200张作为训练集,LIMU选用前400张作为训练集,实验参数设置如表1 所示. ...
1
... STAM模型是在CDNet2014数据集上随机选取5%的图片与其真值进行训练得到的. 为验证对比所有方法的跨场景泛化能力,采用Wallflower[30 ] 与LIMU[31 ] 2个数据集. SU-CPB方法在Wallflower采用数据集规定的200张作为训练集,LIMU选用前400张作为训练集,实验参数设置如表1 所示. ...
1
... F-measure of different methods on Wallflower under different scenes
Tab.4 场景 F-measure SU-CPB STAM[22 ] DeepBS[9 ] Cascade CNN[12 ] FgSeg-Net[14 ] CPB[17 ] SuBSENSE[6 ] GMM[2 ] PBAS[32 ] Bootstrap 0.756 0 0.741 4 0.747 9 0.523 8 0.358 7 0.651 8 0.419 2 0.530 6 0.285 7 Camouflage 0.688 4 0.736 9 0.985 7 0.677 8 0.121 0 0.611 2 0.953 5 0.830 7 0.892 2 Fg Aperture 0.942 0 0.829 2 0.658 3 0.793 5 0.411 9 0.590 0 0.663 5 0.577 8 0.645 9 Light Switch 0.909 7 0.909 0 0.611 4 0.588 3 0.681 5 0.715 7 0.320 1 0.229 6 0.221 2 Time of Day 0.794 9 0.342 9 0.549 4 0.377 1 0.422 2 0.756 4 0.710 7 0.720 3 0.487 5 Waving Trees 0.666 5 0.532 5 0.954 6 0.287 4 0.345 6 0.703 3 0.959 7 0.976 7 0.842 1 Overall 0.792 9 0.682 0 0.751 2 0.541 3 0.390 2 0.671 4 0.671 1 0.644 3 0.562 4
表 5 Wallflower数据集Moved Object场景中不同方法的Specifity对比 ...