浙江大学学报(工学版), 2020, 54(7): 1249-1255 doi: 10.3785/j.issn.1008-973X.2020.07.001

自动化技术、计算机技术

面向高速公路抛洒物检测的动态背景建模方法

夏莹杰,, 欧阳聪宇

Dynamic image background modeling method for detecting abandoned objects in highway

XIA Ying-jie,, OUYANG Cong-yu

收稿日期: 2020-02-25  

Received: 2020-02-25  

作者简介 About authors

夏莹杰(1982—),男,副教授,从事智慧交通、大数据分析及车联网安全的研究.orcid.org/0000-0002-4642-2503.E-mail:xiayingjie@zju.edu.cn , E-mail:xiayingjie@zju.edu.cn

摘要

针对高速公路抛洒物检测中传统的固定背景建模方法容易因开放环境变化产生大量的前景噪声,动态背景建模方法容易因抛洒物的静止特性导致前景对象快速融入背景,提出基于背景分离高斯混合模型(BS-GMM)的动态背景建模方法. 该方法对传统高斯混合模型的背景划分和模型匹配方法进行改进,设计基于像素点的高斯分布背景模型权值的衰减状况进行背景建模和背景更新的方法,既能减少开放环境大量环境噪声的影响,也能对抛洒物快速进入静止状态后的准确检测,在计算性能上能够达到实时检测的效果. 实验结果证明,BS-GMM方法在抛洒物检测过程中产生的噪声数量比其他方法少,且对静止超过20 s的物体能够作为前景目标提取,因此能够有效地应用于高速公路抛洒物的准确识别.

关键词: 高速公路 ; 抛洒物检测 ; 高斯混合模型 ; 背景建模 ; 权值衰减

Abstract

There have been some research in different image background modeling methods to detect abandoned objects in highway scenes. However, traditional fixed background modeling methods easily generate foreground noises because of the environmental changes, and dynamic background modeling methods quickly integrate the motionless foreground abandoned objects into the background model. A dynamic background modeling method was proposed based on background separation Gaussian mixture model (BS-GMM) for detecting abandoned objects in highway to solve this problem. Background division method and model matching method were improved in traditional Gaussian mixture model. The weight attenuation of the Gaussian distribution models per pixel was utilized to dynamically model and update image background model. The background update frequency of the traditional Gaussian mixture model method was retained, and the stationary target was continuously detected by the method of background separation. The method can reduce the impact of environmental noises easily generated in the open environment of highway, and effectively detect the long-time motionless abandoned objects. The method can achieve the effect of real-time detection in terms of computing performance. The experimental results show that our BS-GMM method produces less foreground noises than other methods, and detects abandoned objects which are motionless for more than 20 seconds. BS-GMM method can be effectively applied to detect abandoned objects in highway.

Keywords: highway ; abandoned object detection ; Gaussian mixture model ; background modeling ; weight attenuation

PDF (1099KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

夏莹杰, 欧阳聪宇. 面向高速公路抛洒物检测的动态背景建模方法. 浙江大学学报(工学版)[J], 2020, 54(7): 1249-1255 doi:10.3785/j.issn.1008-973X.2020.07.001

XIA Ying-jie, OUYANG Cong-yu. Dynamic image background modeling method for detecting abandoned objects in highway. Journal of Zhejiang University(Engineering Science)[J], 2020, 54(7): 1249-1255 doi:10.3785/j.issn.1008-973X.2020.07.001

随着高速公路车流量的不断增长,因高速公路抛洒物诱发的事故数量激增. 这些抛洒物大多为货车上未捆扎严实而掉下的货物或者汽车故障掉落的碎片,这些体积小而坚硬的物体,对高速公路司乘人员的安全带来了极大的威胁. 利用视频技术对高速公路抛洒物进行实时、准确地检测,成为智慧交通领域一个非常有意义且亟待解决的问题. 不同于高速公路上的机动车、护栏、标志标线等对象,抛洒物种类各异,不具有图形图像上的通用特征,本文利用背景建模和前景提取方法实现对抛洒物目标的检测.

传统的固定背景建模方法无法快速适应环境变化,导致前景提取过程中出现大量环境噪声. 现有的一些动态背景建模方法无法将静止的抛洒物目标长时间保存在前景,本文提出基于背景分离高斯混合模型(BS-GMM)的动态背景建模方法,在实时更新背景模型的前提下,保持静止目标在前景图像中停留足够的时间,以完成对抛洒物的准确检测.

1. 相关工作

1.1. 基于背景建模的抛洒物检测方法

基于背景建模方法实现对前景抛洒物目标的检测,主要原理是构建一个稳定且可不断更新的背景模型,然后提取不在背景模型中的目标对象,对其中抛洒物和噪声进行区分. 传统的背景建模方法有帧差法[1]、Codebook方法[2]、高斯混合模型[3]方法等. 帧差法依赖于全局的像素值差分阈值,方法的复杂度低,较难在高速公路类型的复杂场景将前景目标和噪声进行有效区分. Codebook方法根据像素点在时间序列上的变化程度来建立背景模型,该方法对光照变化比较敏感,且计算量较大,因此不适用于高速公路这类开放场景. Stauffer[3]提出高斯混合模型方法,对复杂场景下的视频序列进行背景建模和前景提取,目前为止大多数抛洒物检测算法都是基于高斯混合模型的方法来实现背景建模的,获取前景目标后利用前景目标的运动轨迹、图像特征等信息对抛洒物目标进行筛选. 陈祖爵等[4]在高斯混合模型的更新过程中引入加速因子和合理性反馈机制,从而消除运动车辆在前景提取时产生的拖影,以免对抛洒物检测造成影响. 刘鑫等[5]将帧差法与高斯混合模型相融合,用来实现前景目标检测的完整性,以避免将抛洒物或者车辆目标分割成多个目标.

在获得前景目标后,一些相关的研究工作利用抛洒物的运动特征或图像特征来排除噪声影响. 通常可以使用目标跟踪算法来得到前景目标的运动状态. Silvia等[6]利用前景目标周围的颜色相关性来跟踪连续帧的前景目标,为静止的遗弃物目标寻找失主. 汪贵平等[7]从物品抛洒的行为特征来分析,先识别出车辆目标,再基于Kalman滤波器对其他出现的运动目标进行跟踪,保持一段运动轨迹后静止则认为是车辆抛洒物.

除去基于运动特征来判断抛洒物外,还有学者基于图像特征对前景目标进行二次筛选. Fu等[8]对疑似抛洒物目标进行边缘检测,去除由环境引起的均匀噪声,例如光照变化、下雨变化等. Wen等[9]根据抛洒物的像素变化率、边缘强度变化、前景完整性、相对于周围背景的直方图对比度、高度和宽度的先验值等特征,基于特征值训练逻辑回归分类器识别出抛洒物目标. Elena等[10]从颜色、纹理、语义学等维度对抛洒物目标进行定义,识别出感兴趣路面区域内的抛洒物目标. 上述基于图像特征的相关方法依赖于学者对特征集的人为抽象,可泛化能力不强.

1.2. 基于深度学习的抛洒物检测方法

随着深度学习的不断发展,相关网络模型提取图像特征的能力不断增强,使用深度学习进行抛洒物目标检测的方法越来越多. 阮雅端等[11]将抛洒物目标的识别转化为路面、非路面的二分类问题,将包含路面和非路面的区域图片标注作为训练集,通过卷积神经网络训练出分类网络;利用车辆检测算法进行判断,若不属于车辆且该区域属于路面的置信度低于非路面的类别,则将其判断为抛洒物. 金瑶等[12]基于YOLO V3构建网络,利用抛洒物目标更依赖于浅层特征的特点,增加了1 个尺度进行目标检测,通过模型训练能够有效地检测出城市道路上如纸屑、木块、石块等具体几类抛洒物目标. 尽管深度学习在特征提取和目标分类上具有突出的能力,但是其局限性在于训练集中目标检测对象是否充分,会直接影响最终识别效果. 这一类相关工作在某些特定场景下识别某些特定种类的抛洒物有一定的效果,但是不具有较强的泛化能力. 如何将深度学习应用于抛洒物这类不具备通用特征的目标对象识别,面临着巨大的挑战.

2. 背景分离高斯混合模型

在传统高斯混合模型算法的基础上,提出背景分离高斯混合模型(BS-GMM),实现背景建模和背景更新. 该模型重点解决以下2个问题:1)减少环境噪声出现在前景目标中;2)抛洒物一般具有从运动状态快速到静止状态的过程,避免静止状态的抛洒物被快速融入背景模型中,影响检测效果.

2.1. BS-GMM模型架构

为视频图像中每个像素点分解K个高斯分布作为背景模型:

$P({X_{j,t}}) = \sum\limits_{i = 1}^K {\omega _{j,t}^i \cdot \eta \left({X_{j,t}};\mu _{j,t}^i,{{\varSigma}} _{j,t}^i\right)}. $

式中: $X_{j,t}$为图像中第j个像素点在t时刻的像素,若像素有多个通道,则 $X_{j,t}$表示向量 ${{x}}_{j,t}$$P$表示该像素点的背景分布情况; $\omega _{j,t}^i$为混合高斯模型中第i个高斯分布在t时刻的权值,该权值可以理解为模型i在混合背景模型中的重要度,如果模型i被匹配上,权值不断增加,否则权值减少,K个模型的权值和为1; $\mu _{j,t}^i$${{\varSigma}} _{j,t}^i$分别为在时刻tj个像素点的第i个高斯分布的均值和协方差矩阵; $\eta $为高斯分布的概率密度函数.

BS-GMM模型在传统高斯混合模型的基础上对背景划分和模型匹配模块进行改进,分析每个像素点的高斯分布背景模型的权值 $\omega _{j,t}^i$衰减状况,由此动态触发背景建模和背景更新,与背景模型匹配的结果可以用于前景目标提取和相关权值参数更新. 具体方法的流程如图1所示.

图 1

图 1   BS-GMM方法流程

Fig.1   BS-GMM method flow chart


2.2. BS-GMM模型实现

2.2.1. 模型初始化

对图像中各个像素点的背景模型进行初始化,即创建一个权值和为1的高斯分布模型,这些高斯分布模型的均值设为视频首帧图像中对应点的像素,方差设为默认值. 高斯分布权值更新的学习率参数在初期N帧内使用较高的学习率过滤掉实际背景中的运动目标干扰信息,以获得稳定的高速公路背景. 经过N帧后,使用较低的学习率进行背景建模和前景提取,以保证前景目标的完整性,防止目标像素快速融入背景模型.

2.2.2. 背景划分和模型匹配

传统高斯混合模型在每一帧都对背景进行划分,将导致静止的抛洒物目标快速消失在前景中. 设定背景阈值为0.9,学习率为0.001,背景更新过程如图2所示.

图 2

图 2   传统背景划分方法

Fig.2   Traditional background subtraction


${T_0}$时刻只有路面的背景模型,此后抛洒物目标出现并保持静止,算法会生成一个对应的高斯模型描述该前景像素. 该模型与像素点持续匹配导致其权值不断增加,在 ${T_{\rm{2}}}$时刻前景模型权值到达0.1;该时刻后,前景对象将会被融入到背景当中,前景目标消失,期间只有近100帧的图像能够检测到静止目标.

提出的BS-GMM模型在模型初始化完成且构建稳定的背景模型后,按照背景阈值对高斯分布模型进行划分,标记为不同的背景模型和前景模型. 对像素点与其中的背景模型进行匹配,得到该像素点jt时刻的类型 $T{_{j,t}}$是否为背景类型,其中0为背景类型,1为前景类型.

$T{_{j,t}} = \left\{ {\begin{array}{*{20}{c}} {\rm{0,}}&{\sum\limits_{i = 1}^K {{L_{i,t}}{M_{i,t}} > 0;} } \\ 1,&{{\text{其他}}.} \end{array}} \right.$

式中: ${L_{i,t}}$表示t时刻的高斯分布模型i标记是否为背景,如果是则为1,否则为0; ${M_{i,t}}$表示在t时刻高斯分布模型i是否与像素点j匹配,匹配上则值为1,否则为0.

定义背景衰减阈值如0.1,当背景模型的权值和低于该阈值时,认为背景已发生更新,此时重新划分背景,在2次背景划分之间,保持各模型的类别不变. 改进后的背景划分方法如图3所示.

图 3

图 3   改进背景划分方法

Fig.3   Improved background subtraction


${T_0}$时刻对背景进行初次划分并标记模型类别. 当目标静止后,在像素点类型的判断过程中,根据背景模型的匹配结果决定像素点属于前景还是背景,在背景模型的权值和衰减到某一阈值之前,都能被判断为前景类型. ${T_{\rm{2}}}$时刻背景模型权值和衰减至0.1时,重新对背景进行划分. 在该方法下像素点需要接近900帧才会被检测为背景类型,由此实现较长时间静止目标的检测,可以根据实际需要设置背景模型的衰减阈值来控制目标的静止检测时间.

该方法改变了背景划分的策略和模型匹配的方法,在适应环境变化实现低噪声率的动态背景建模的同时,可以有效地对静止目标进行检测.

2.2.3. 参数更新

当第j个像素点与第i个模型匹配上时,对模型的参数进行如下更新:

${\omega _{i,t}} = (1 - \alpha ){\omega _{i,t - 1}} + \alpha ({M_{i,t}}),$

${{{\mu}} _{i,t}} = (1 - {\rho _{i,t}}){{\mu} _{i,t - 1}} + {\rho _{i,t}}{{x}_{j,t}},$

$\sigma _{i,t}^2 = (1 - {\rho _{i,t}})\sigma _{i,t - 1}^2 + {\rho _{i,t}}{({{x}_{j,t}} - {{\mu} _{i,t}})^{\rm{T}}}({{x}_{j,t}} - {{\mu} _{i,t}}).$

式中:ρit为参数更新速率, ${\rho _{i,t}} = \alpha \eta ({X_{j,t}},{{{\mu }}_{i,t}},{\sigma _{i,t}})$$\alpha $为学习率,一般设为0.001. 像素点匹配上模型i,均值和方差持续更新,可以适应环境的变化. 若像素点未能匹配上该高斯模型,则模型的均值、方差等参数都不更新. 在完成所有模型匹配后,若没有一个模型匹配上当前像素值,则需要增加以该像素值为均值的高斯分布模型,若当前像素点的高斯分布模型数量为K,则需要将权值最低的高斯分布模型删除. 对模型权值进行归一化处理并排序.

3. 实验结果和分析

为了验证BS-GMM方法在高速公路抛洒物检测的有效性,将BS-GMM与传统的帧差法、Codebook、低学习率高斯混合模型[13](LL-GMM)、基于期望最大化的高斯混合模型[14](EM-GMM)等方法进行比较,分析静止抛洒物检出的正确性和时间持久性及各算法产生的前景噪声数量等指标,选取多个实际高速公路抛洒物场景展示检测效果.

3.1. 实验设置

实验设备配置如下:CPU为Intel Core i5 @2.3 GHz,内存为8 GB,操作系统为Windows 1 064位.

实验数据集:视频数据来源于某市高速公路支队的监控摄像头,一共取自30个不同点位的摄像头,所有视频时长均为2 min,帧率为25帧/s,分辨率为1 920×1 080. 抛洒物种类包括木块、石块、塑料袋、遮货布等,无抛洒物的视频中包含各类噪声,如阴影、抖动、天气变化等环境因素. 详细信息如表1所示.

表 1   视频数据集信息

Tab.1  Experimental data set of video

视频类型 场景数量 视频数量 视频时长/min
含抛洒物 30 40 2
无抛洒物 30 120 2

新窗口打开| 下载CSV


选取2个评价指标,比较各方法的背景建模和前景提取效果. 1)抛洒物目标检测的正确性指标,即将抛洒物实际运动过程中的位置进行手动标定作为真值. 若检测结果与标定位置的交并比(IOU)大于0.5,则认为该帧的检测结果匹配上了真实目标,最终得出匹配帧数占视频中含抛洒物总帧数的比值设为检测正确性指标. 该指标既评价了检出的正确性,也评价了对静止抛洒物检出的时间持久性. 2)检测过程中产生的前景噪声数量,对每一帧除抛洒物目标和车辆目标以外的路面区域噪声像素点进行统计,得出前景噪声数量. 该指标评价了前景提取的误检率.

实验各方法参数设置如下.

1)帧差法. 将差分阈值设置为15,其背景建模的方式为对视频前200帧进行学习,将路面分块进行背景的稳定性判断,找出一段时间内无变化的路面作为固定背景帧,用于后续的前景提取.

2)Codebook方法. 将前200帧用于模型训练,每个像素点用6个码元来描述,其他参数设置参考赵占杰等[15]的方法.

3)LL-GMM方法. 主要参数如下:高斯模型数量为5,背景阈值为0.9,学习率为0.001,方差阈值为16. 对前200帧视频使用高学习率,建立背景模型.

4)EM-GMM方法. 对LL-GMM方法的背景更新过程进行改进,将最近10帧的模型权值作为参数,通过期望最大化算法(EM)更新背景模型.

5)BS-GMM方法. 学习率设为0.001,背景模型衰减阈值设为0.5,其他参数与上述LL-GMM一致.

3.2. 实验分析

3.2.1. 检测正确性分析

将各方法应用于40个含抛洒物目标的高速公路视频中,各方法检测的正确率A图4所示.

图 4

图 4   含抛洒物视频检测正确性分析

Fig.4   Correctness of abandoned objects detection


图4可知,GMM相关算法比帧差法和Codebook方法的正确性平均高5%左右. 这是由于在抛洒物目标检测过程中,抛洒物的颜色与路面接近时,使用帧差法和Codebook方法无法将前景目标提取出来,使用LL-GMM方法在抛洒物检测静止约4 s后会使部分前景目标融入背景,使前景检测框与真实目标框的IOU匹配结果偏小,从而丢失一些匹配帧数. EM-GMM方法能够通过历史帧计算出实际背景,但是无法将静止目标长时间保留在前景图像上. 基于权值衰减背景更新的BS-GMM方法在抛洒物目标的检测正确性方面表现更好.

例如,选取其中一个视频,前200帧(即8 s)用于背景建模,从第300帧(即12 s)开始抛洒物静止了4 s,抛洒物目标的前景模型权值大于0.1,采用LL-GMM方法抛洒物目标开始逐渐融入背景,BS-GMM方法背景模型的权值衰减率没有触发背景更新,静止抛洒物能够较好地被持久提取出来. 具体效果如图5所示.

图 5

图 5   静止抛洒物目标持久性提取效果

Fig.5   Effect of static abandoned object sustainable extraction


3.2.2. 前景噪声数量分析

选取一个视频作为实验对象,比较各方法在视频每一帧的前景提取时出现的噪声数量N,结果如图6所示.图中,Nf为帧数.

图 6

图 6   单个视频前景噪声数量分析

Fig.6   Number of noise in foreground of single video


图6可知,该视频前200帧用于背景模型的初始化. 整体结果显示,基于GMM的前景提取方法比帧差法和Codebook方法的噪声数量少20%以上,且从第12 s(即300帧)开始,抛洒物处于静止状态,BS-GMM与LL-GMM和EM-GMM方法相比,噪声像素点数量更少.

在视频第38 s(即950帧)开始,环境光照亮度发生较明显的变化,BS-GMM方法判定当背景模型的权值衰减至某一阈值时主动更新背景模型,因此更好地适应环境条件变化,噪声数量明显少于LL-GMM和EM-GMM方法. 如图7所示,对第1 000帧采用3种GMM方法提取前景图像,相比于BS-GMM方法,EM-GMM方法和LL-GMM方法无法快速适应环境的变化,在前景提取中受光照条件的影响较大.

图 7

图 7   环境条件变化下前景提取效果对比

Fig.7   Effect of foreground extraction in varying environmental conditions


将各方法应用于全部160个视频数据集中,统计各视频中的平均噪声数量Na,如图8所示.

图 8

图 8   数据集平均前景噪声数量分析

Fig.8   Average number of noise in foreground of experimental data set


图8可知,BS-GMM方法相比于其他方法,平均噪声数量都低10%以上,相比帧差法低50%以上. 在实际的抛洒物检测过程中,前景目标提取的误检可能性较低.

由上述实验结果可知,基于高斯混合模型的多种方法都使用多个高斯分量准确描述路面背景,且快速适应环境变化,因此在背景建模和前景提取的过程中,产生的噪声数量明显少于采用单一阈值提取前景的帧差法和对于光照变化环境条件敏感的Codebook方法. LL-GMM方法采用低学习率的方法会导致背景更新过慢,因而产生大量噪声;EM-GMM方法采用了较高的背景模型更新频率,但是固定频率无法做到及时更新,提出的BS-GMM方法能够根据背景模型衰减状况自适应更新,因此在提取的前景中噪声相对较少.

3.3. 效果展现

采用BS-GMM方法对包含木块、塑料袋、遮货布等抛洒物的高速公路视频进行检测,获得的前景图像如图9所示. 其中,静止状态是抛洒物静止20 s后对前景目标的提取结果.

图 9

图 9   抛洒物检测效果展现

Fig.9   Effect of abandoned objects detection


上述结果展示,BS-GMM方法使得抛洒物在静止20 s后还不会融入背景中,且产生较少的噪声,因此前景图像中抛洒物目标的提取效果更好.

4. 结 语

本文提出基于背景分离高斯混合模型的动态背景建模方法. 该方法改进了传统高斯混合模型的背景划分和模型匹配模块,通过背景模型和前景模型分离的方式分析背景模型权值和衰减状况,实现对抛洒物静止状态后目标的有效检测. 与其他背景建模方法相比,该方法在目标检测正确性、持久性以及对环境噪声的抗误检性方面都有更好的效果.

该方法后续可以继续优化,对提取的前景目标进行形态学和图像特征的二次筛选,进一步减少环境噪声的影响.

参考文献

叶芳芳, 许力

实时的静止目标与鬼影检测及判别方法

[J]. 浙江大学学报: 工学版, 2015, 49 (1): 181- 185

[本文引用: 1]

YE Fang-fang, XU Li

Real-time detection and discrimination of static objects and ghosts

[J]. Journal of Zhejiang University: Engineering Science, 2015, 49 (1): 181- 185

[本文引用: 1]

BEGEL A, PHANG K Y, ZIMMERMANN T. Codebook: discovering and exploiting relationships in software repositories [C] // IEEE International Conference on Software Engineering. Cape Town: IEEE, 2010: 125-134.

[本文引用: 1]

STAUFFER C. Adaptive background mixture model for real-time tracking [C] // IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Fort Collins: IEEE, 1998: 246-252.

[本文引用: 2]

陈祖爵, 陈潇君, 何鸿

基于改进的混合高斯模型的运动目标检测

[J]. 中国图象图形学报, 2007, 12 (9): 1585- 1589

DOI:10.3969/j.issn.1006-8961.2007.09.014      [本文引用: 1]

CHEN Zu-jue, CHEN Xiao-jun, HE Hong

Moving object detection based on improved mixture Gaussian models

[J]. Journal of Image and Graphics, 2007, 12 (9): 1585- 1589

DOI:10.3969/j.issn.1006-8961.2007.09.014      [本文引用: 1]

刘鑫, 刘辉, 强振平, 等

混合高斯模型和帧间差分相融合的自适应背景模型

[J]. 中国图象图形学报, 2008, 13 (4): 729- 734

DOI:10.11834/jig.20080422      [本文引用: 1]

LIU Xin, LIU Hui, QIANG Zhen-ping, et al

Adaptive background modeling based on mixture Gaussian model and frame subtraction

[J]. Journal of Image and Graphics, 2008, 13 (4): 729- 734

DOI:10.11834/jig.20080422      [本文引用: 1]

SILVIA F, GIANLUCA G, MASSIMO N, et al. A new method for real time abandoned object detection and owner tracking [C] // 2006 IEEE International Conference on Image Processing. Atlanta: IEEE, 2006: 3329-3332.

[本文引用: 1]

汪贵平, 马力旺, 郭璐, 等

高速公路抛洒物事件图像检测算法

[J]. 长安大学学报: 自然科学版, 2017, 37 (5): 81- 88

[本文引用: 1]

WANG Gui-ping, MA Li-wang, GUO Lu, et al

Image detection algorithm for incident of discarded things in highway

[J]. Journal of Chang'an University: Natural Science Edition, 2017, 37 (5): 81- 88

[本文引用: 1]

FU H, MEI X, MAL H, et al. Abandoned object detection in highway scene [C] // 6th International Conference on Pervasive Computing and Applications. Port Elizabeth: IEEE, 2011: 117-121.

[本文引用: 1]

WEN J, GONG H, ZHANG X, et al. Generative model for abandoned object detection [C] // Proceedings of the International Conference on Image Processing. Cairo: IEEE, 2009: 853-856.

[本文引用: 1]

ELENA S, CARLO S R

Real-time video-shot detection for scene surveillance applications

[J]. IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society, 2000, 9 (1): 69- 79

DOI:10.1109/83.817599      [本文引用: 1]

阮雅端, 高妍, 张宇杭, 等. 基于深度卷积网络的路面遗留物检测方法技术: 201710059678.0 [P]. 2017-06-13.

[本文引用: 1]

RUAN Ya-duan, GAO Yan, ZHANG Yu-hang, et al. Detection method technology of pavement residues based on deep convolution network: 201710059678.0 [P]. 2017-06-13.

[本文引用: 1]

金瑶, 张锐, 尹东

城市道路视频中小像素目标检测

[J]. 光电工程, 2019, 46 (9): 76- 83

[本文引用: 1]

JIN Yao, ZHANG Rui, YIN Dong

Object detection for small pixel in urban roads videos

[J]. Opto-Electronic Engineering, 2019, 46 (9): 76- 83

[本文引用: 1]

ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction [C] // Proceedings of the 17th International Conference on Pattern Recognition. Cambridge: IEEE, 2004: 28-31.

[本文引用: 1]

YINGDONG M A, LIU Y, LIU S, et al

Multiple object detection and tracking in complex background

[J]. International Journal of Pattern Recognition and Artificial Intelligence, 2016, 31 (2): 809- 830

[本文引用: 1]

赵占杰, 林小竹, 张金燕

一种基于码本背景模型的运动目标检测方法

[J]. 北京石油化工学院学报, 2010, (1): 45- 49

[本文引用: 1]

ZHAO Zhan-jie, LIN Xiao-zhu, ZHANG Jin-yan

A moving object detection method based on codebook background model

[J]. Journal of Beijing Institute of Petro-chemical Technology, 2010, (1): 45- 49

[本文引用: 1]

/