序列检测范文

2024-06-17

序列检测范文(精选8篇)

序列检测 第1篇

红外成像有很多优点:适用的环境广,在夜间和相对恶劣天气下的工作性能优于可见光;适用于一些特定目标,由于红外图像是利用目标和背景,或者目标各部分的温度差形成的红外辐射差进行成像,因而对特定目标的识别能力优于可见光。因此,红外成像技术在目标检测和识别方面发挥着重要作用。

1 Top-hat变换小目标检测

1.1 Top-hat变换

Top-hat是一种基于形态学的方法,定义为[1]:

H[f1(x,y)]=f1(x,y)-[f1(x,yb(x,y)] (1)

其中:f1(x,y)为预处理图像,b(x,y)为结构元素,f1(x,yb(x,y)表示对f1(x,y)进行开运算,然后选取适当阈值对图像进行分割,得到检测目标。但是,图像的高频部分包含一部分噪声,而且分割阈值的不恰当选取,在目标检测时,会造成检测目标的丢失或者检测到虚假目标。

1.2 改进的Top-hat变换

Top-hat算法很重要的部分是阈值分割。常用的阈值分割方法有:最大熵法阈值分割、自适应阈值分割等方法。本文采用的是分块自适应阈值分割的方法。

具体的方法为:把图像分割成若干个尺寸相同的子块,为了避免在分割区域时,将同一目标划分在不同子块中,在子块分割的时候保证相邻子块中至少有一定的重叠,分别计算各子块中像素的均值μ1,μ2,…,μn,均差σ1,σ2,…,σn,并计算出图像各子块的候选阈值:

Ti=μi+i (2)

a一般取3。

由于当目标出现在某个子块里面时,理想条件下,统计特性上是该子块的均差比较大,设σmax是均差最大的子块,其对应的阈值为:Tσmax,则对各子块候选阈值做如下处理:

Τi={ΤiΤiΤσmaxΤσmaxΤi<Τσmax(3)

得到阈值后,还需对目标进行进一步排除。最后对留下目标做图像连通域检测,保证同一个目标不会被重复检测,这样就完成了单帧图像的小目标检测。

2 SIFT图像配准算法

图像配准是同一场景的两幅或多幅图像在空间上的对准。它主要分为基于灰度和基于特征两大类[2]。本文中采用的SIFT算法即为基于特征的匹配方法。

2.1 SIFT算法流程

(1) 尺度空间极值检测

在图像中,尺度空间图像由图像和高斯核卷积得到[3]:

L(x,y,σ)=G(x,y,σ)*I(x,y) (4)

其中L(x,y,σ)为尺度空间图像,I(x,y)为二维图像,G(x,y,σ)为二维高斯滤波函数,*为卷积。

为了有效地在尺度空间检测到稳定的关键点,利用不同尺度的高斯差分核与图像卷积中的极值点作为特征点。它通过下式得到:

D(x,y,σ)=(G(x,y,)-G(x,y,σ))*I(x,y)

=L(x,y,)-L(x,y,σ) (5)

其中k为常数,常取值为2

(2) 精确定位特征点的位置,去除噪声点和边缘点

由于DoG值对噪声和边缘较敏感,对上一步中检测到的极值点进行三维二次函数拟和以精确确定极值点的位置和尺度。

之后利用它的Hessian矩阵H:

Η=[DxxDxyDxyDyy](6)

来得到主曲率。设αβ分别为H的最大和最小特征值,并且设α=,然后利用矩阵性质:

Tr(H)=Dxx+Dyy=α+β (7)

Det(H)=DxxDyy-(Dxy)2=αβ (8)

得到:

Τr(Η)2Det(Η)=(α+β)2αβ=(rβ+β)2rβ2=(r+1)2r(9)

Τr(Η)2Det(Η)<(r+1)2r,其中r一般取10,则保留该极值点,作为特征点,否则去除,以增强匹配稳定性和提高抗噪声能力[4]。

(3) 确定特征点的主方向

利用特征点邻域像素的梯度方向分布特性为每个特征点指定方向参数,从而使算子具备旋转不变性。(x,y)处的梯度值和方向分别为:

{m(x,y)=(L(x+1,y)-L(x-1,y))2+(L(x,y+1)-L(x,y-1))2θ(x,y)=tan-1((L(x,y+1)-L(x,y-1))(L(x+1,y)-L(x-1,y)))(10)

在以特征点为中心的邻域内采样,并用梯度方向直方图来统计该像素邻域的梯度方向。

(4) 生成SIFT特征描述符

首先将坐标轴旋转为特征点的主方向,以保证旋转不变性;接下来以特征点为中心取8×8的窗口中央点为当前特征点的位置,然后在每个图像小块上计算8个方向的梯度方向直方图,得到每个方向的累加值,形成一个种子点,得到32维的SIFT特征向量,将特征向量的长度归一化,则可以去除光照变化的影响。

2.2 RANSAC算法得到图像变换参数

根据得到的特征匹配点对,用RANSAC算法[5],计算出待拼接图像之间的全局变换参数。

RANSAC估计算法的步骤是:

(1) 从n个候选匹配特征点对中随机选取4个点对建立方程组,解出变换矩阵的8个未知参数。

(2) 计算其余(n-4)个特征点经过此变换矩阵的坐标,计算与它的候选匹配点之间的欧氏距离,记为dv

(3) 若dv小于指定阈值,则该候选特征点为正确匹配点,否则为错误匹配点,并且统计正确匹配点数量;当正确匹配点数量大于总数的95%时,此时的正确匹配点对作为最佳匹配点对集合,执行(5),否则执行(4)。

(4) 再选另外随机选取4对候选匹配点,执行(1)-(3),重复规定次数后,选择具有正确匹配数量最多的集合作为最佳匹配点对集合,执行(5)。

(5) 对这个匹配点对集合中的点对利用最小二乘法得到图像间的变换参数。

3 完整算法基本流程

(1) 对两幅图像(参考图像与实时图像)分别提取SIFT特征描述符。

(2) 对参考图像中的每个特征点向量,计算与实时图像所有特征点向量的距离,找出最佳的匹配点,其中要保证次小距离和最小距离比值大于指定阈值,否则为没有对应匹配点。

(3) 对特征匹配点对利用RANSAC算法,得到图像之间的变换矩阵。

(4) 两幅图像进行拼接时,对重叠部分可以简单进行取平均值;为了较好的完成图像的无缝拼接,也可以利用图像重叠点与每幅图像中心点的距离,得到相应权值,计算重叠点的灰度值[6],这样完成了两幅图像的拼接。(更多图像无缝拼接方法可以参见文献[7])

(5) 本文的序列图像为规则重复扫描固定区域,所以可以根据一次扫描周期,对序列图像进行拼接,得到全景图像。

(6) 之后对所有获得的实时图像在全景图中配准,确定相应位置,设一个和全景图同样大小的矩阵,记录图像相应位置出现的次数N;再设一个和全景图同样大小的矩阵,然后用改进的Top-hat算法对实时图像进行小目标检测,记录相应位置检测到目标的次数n1。

(7) 扫描结束后,分析全景图中每个位置检测到小目标的次数,注意即使每次检测到的是同一位置,但标记时可能有一两个像素的误差,需要做相应连通域处理。计算相应位置被检测到的次数和出现的次数之比,即为p=n1Ν。由于本文中所模拟使用的物体转动规律,检测到的概率为大约80%,另20%由于物体转动,成像几乎融于背景中。

(8) 对每个位置检测到的比例值进行分析,得到全景标记图像中绝大多数位置中的点的比例为10%以下(因为有噪声点的影响,这样也可以用来排除噪声点对目标检测的干扰),可以判定这些点不是目标点;得到有极个别的位置比例接近于1,可以判定这些为虚假目标点(干扰点),这些点成像形状近乎于目标,但是它们没有转动,可以稳定检测到;只有一个位置所得比例接近80%,得到真实目标的正确位置。

4 实验结果

图1为单帧图像(320×256)检测结果对比,图1(a)显示了当旋转目标成像较大而且没有其他噪声点干扰时的情况,第一幅图像显示了原始图像,第二幅图像显示了应用改进后的Top-hat算法检测到的目标,第三幅图像显示了真实目标的位置。图1(b)显示了当目标旋转成像变小而且含有其他噪声点干扰时的情况。图1(c)显示了当目标旋转成像几乎融于背景中而且含有其他噪声点干扰时的情况。对比可以得出由于目标旋转,特定检测算法不能稳定检测,而且噪声点会影响检测准确性。

图2里左数第1、2、3、5个方框中的物体的p(p=n1Ν)值比较高的位置(拼接全景图后,新获得的扫描图像总数为8322帧),第4个方框中的物体为本文算法检测到的真实目标,其余坐标点位置检测率都在10%以下(不做方框标记)。表1给出了这几个位置的检测情况。(全景图像左上角坐标代表(0,0))。

(a) 单帧图像检测 (没有虚假目标)(b)()(c)()

5 结 语

本文结合图像拼接,提出了一种新的识别小目标的方法。由于地面背景复杂,单独靠一种检测方法会检测到很多虚假目标;而且当目标变化,融于背景中时,使得目标检测变得很困难。由此提出一种先利用SIFT算法进行图像拼接,形成全景图,结合改进的Top-hat算法进行单帧图像检测,然后利用图像配准得到每个位置的检测结果,最终利用被检测到次数与出现次数的比值来确定目标的正确位置的算法。实验证明,本文算法适用于序列图像中规则变化的目标检测。

摘要:在红外序列图像中识别规则变化小目标时,传统Top-hat算法是常用的目标检测方法,但是可能会检测到很多虚假目标,而且目标发生变化时不能稳定检测。为了准确检测目标,提出一种红外序列图像中规则变化的小目标检测方法。首先对序列图像利用SIFT算法提取特征点,然后利用RANSAC算法进行特征匹配,拼接形成全景图像,结合对单帧图像利用改进的Top-hat算法进行小目标检测,并且标记,最后根据标记的统计结果得到真实目标位置。

关键词:尺度不变特征变换算法,图像配准,小目标检测,形态学算法,RANSAC算法,Top-hat算法

参考文献

[1]王江涛,梅雪,林锦国.基于Top-hat变换与主成分分析的人脸识别方法[J].计算机工程与设计,2009,30(2):395-397.

[2]Barvara Z itova,Jan Flusser.Image registration m ethods:a survey[J].Image and Computing,2003,21:977-1000.

[3]David G.Lowe.D istinctive Image Features from Scale-Invariant Keypoints[J].International Journal of Computer V ision,2004,60:91-110.

[4]杨艳伟.基于SIFT特征点的图像拼接技术研究[D].西安:西安电子科技大学,2009.

[5]黄有群,付裕,马广娓.基于RANSAC算法的柱面全景图拼接方法[J].沈阳工业大学学报,2008,30:461-465.

[6]S iavash Zokai,GeorgeW olberg.Image registration using log-polarmap-p ings for recovery of large-scale sim ilarity and projective transformations[J].Image Processing,2005,14:1422-1434.

序列检测 第2篇

ITS序列分析在真菌分类鉴定和分子检测中的应用

笔者介绍了ITS序列结构特点,综述了ITS序列在植物病原真菌分类鏊定和分子检测中的应用,并对其应用前景进行了展望.

作 者:白树猛 田黎  作者单位:青岛科技大学生物系,山东,青岛,266042 刊 名:畜牧与饲料科学 英文刊名:ANIMAL HUSBANDRY AND FEED SCIENCE 年,卷(期):2009 30(1) 分类号:Q949.32 Q522.6 关键词:ITS   分类鉴定   分子检测  

运动点目标序列图像检测性能分析 第3篇

关键词:目标跟踪,虚警率,探测概率,图像序列,目标检测

在目标探测系统中,从低信噪比的图像中提取微弱点目标信号一直以来是研究的难点和热点,各类方法不断涌现[1,2,3,4]。随着探测器的帧频的提高,帧与帧之间杂波的相关性增加了,使得用时域滤波器或者时空域滤波器代替单纯的空域滤波器来抑制杂波从而检测目标成为新的研究趋势[5]。Caefer等人在文献[6,7]中提出了一组时域滤波器,采用了在多帧图像中不断更新目标的置信度的思想[8,9]。在文献[10]中,Silverman等人对滤波器的参数进行了改进。最后,在文献[11]中对该组滤波器中挑选了六个时域和空域参数,使用大量的实际图像并通过迭代运算,得出了一组最优参数的滤波器。然而,目前的研究主要集中在目标的运动速度已知或者是目标的具有确定的运动概率模型的特殊的前提下。在很多情况下,由于目标探测系统的抖动或者其他原因等会造成目标在视场内随机运动。在这种情况下,通过多帧图像序列的检测的方法是否一定能提高目标的探测概率,目前还没有完整的结论。本文将从建立点目标及噪声模型出发,用理论估算和仿真实验的方法,从多帧能量累积和波门检测的角度对这一问题进行分析。

1点目标及噪声成像模型

在实际探测系统中,系统接收到的图像存在退化现象。图像退化是指由场景得到的图像没有完全的反应场景的真实内容。造成图像退化的原因主要有两类。一类是图像产生过程中产生的误差。主要有透镜的色差、像差、失焦等。由于这些误差,无限远点目标在成像平面上会扩散成一个光斑。因此,这一类退化常被称作模糊。另一类是在图像记录过程中产生的,主要有传感器的电子或电磁干扰。图像中的噪声主要有,热噪声、闪烁噪声、发射噪声等。虽然这些噪声服从不同的概率分布,但是经过图像预处理,都能将这些噪声转化为零均值的白噪声。因此,系统接收到的某个像元上点目标信号为:

式(1)中I(x,y)为点目标光斑强度;n(x,y)为白噪声。

2能量累积对点目标探测的作用

本文中将信噪比定义为:

式(2)中

能量累积采用求和取平均的方法。两帧图像能量累积的结果为:

两帧图像上的噪声一般是独立同分布的,因此有:

累积求平均后的信噪比为:

对于静止点目标采用能量累加的方法,两帧累加,信噪比提高到原来的倍。同理,n帧累加信噪比提高到原来的倍,作用明显。

3能量累积法适用范围的估算

在点目标随机运动的情况下,光斑的能量累积往往不能对齐。造成后续图像序列中对应像元的信号强度下降,能量累积后的信噪比随之下降,当点目标的运动范围达到某个临界点时,累积后的信噪比等于单帧的信噪比。可以证明,在这个临界点时,第二帧的能量E(G)2与第一帧的能量E(G1)满足关系

证明如下:

第一帧的信噪比:

与第二帧累积后的信噪比:

令SNR1=SNR,可得

证毕。

此时,虽然经过图像累积,但是信噪比并没有增加。

现在我们把点目标光斑近似成一个半径为R能量分布均匀的圆形光斑(如图1所示),光斑帧间运动服从均匀分布,其概率密度函数为:

f(r)={1πl20r<l0

其中l为抖动范围。

那么,第二帧光斑落在原来区域里平均能量正比于第一帧光斑与第二帧光斑相交的平均面积,该面积为:

a=l/R

再令S=2-1可解得

a=1.464 05 (8)

上述近似计算表明,当光斑的运动半径超过其自身半径的1.46倍时,多帧能量累积的方法反而引入了更多的噪声,信噪比下降。

4 多帧波门检测的仿真实验及分析

多帧累积算法需要缓存多帧图像,对处理系统有较高的要求。如果视场内目标不多,可以将某一帧内过阈值的像素的坐标存储,然后在波门范围内寻找后续图像序列中的过阈值像素,如果找到过阈值像素,那么判定为有目标。显然对于静止目标来说,多帧检测有利于提高探测概率。下面的仿真实验,主要用来估计多帧检测抖动点目标的抖动容忍范围l。

实验中,假设信噪比为3,光斑充满一个像元,光斑的抖动服从均匀分布概率密度。光斑的样本数5 000,并分别取l=0.46, 0.2, 0.8。通过比较与其相应的单帧探概率-虚警率曲线,来评价各自的探测效果。

实验结果表明,当l=0.46时,多帧检测的探测概率虚警率曲线与单帧的基本拟合,表明在此条件下多帧检测效果与单帧的相当。l=0.2时多帧检测的曲线在单帧的右侧,表明多帧检测效果优于单帧检测。当l=0.8时,多帧曲线在单帧曲线的左侧,表明在此条件下多帧检测的效果反而不如单帧的。

5 结论

从直观意义上讲,采用多帧序列图像检测点目标有利于提高目标的检测效果,但实际情况并非如此。本文通过理论估算和仿真实验的方法分别对能量累积检测法和波门阈值检测法进行分析,得出了各自的多帧检测点目标抖动容忍范围,这个范围不是很大。如果点目标在视场内的随机运动是由于系统的抖动造成的, 消除系统的抖动或者获取系统的抖动偏差的实时数据,对提高目标检测概率贡献很大。

参考文献

[1] Kassebaum J.3-D target-based distributed smart camera network lo-calization.IEEE Transactions on Image Processing,2010;19(10):2530—2539

[2] Chang Chein I.Constrained subpixel target detection for remotelysensed imagery.IEEE Transactions on Geoscience and Remote Sens-ing,2000;38(3):1144—1158

[3] Manolakis D.Hyperspectral subpixel target detection using the linearmixing model.IEEE Transactions on Geoscience and Remote Sens-ing,2001;39(7):1392—1408

[4] Dijk J.Superresolution reconstruction for moving point target detec-tion.Optical Engineering,47(9):096401-1-096401-12

[5] Reiss D B.Spatial signal processing for infrared detection.Proceed-ings of SPIE 2235,1994:38—51

[6] Caefer C E. Point target detection in consecutive frame IR imagery with evolving cloud clutter. Proceedings of SPIE 2561, 1995; 14—24

[7] Mooney J M.Point target detection in consecutive frame staring in-grared imagery with evoving cloud clutter.Optical Engeer,1995;34:2772—2784

[8] Barniv Y. Dynamic programming solution for detecting dim moving targets. IEEE Transactions on Aerospace and Electronic Systems, 1985; AES-21(6): 144—156

[9] Barniv Y.Dynamic programming solution for detecting dim movingtargets,Part II:Analysis.IEEE Transactions on Aerospce and Elec-tronic Systems,1987;AES-23(6):776—788

[10] Caefer C E. Signal processing algorithms for point target detection in consecutive frame staring imagery. Proceedings of SPIE 2020,1993: 93—107

序列检测 第4篇

1 网络入侵检测技术

入侵检测通过对计算机网络或计算机系统中的若干关键点收集信息并进行分析,从中发现网络或系统中是否有违反安全策略的行为和被攻击的迹象,进行入侵检测的软件与硬件的组合就是入侵检测系统。入侵检测系统执行的主要任务包括:监视、分析用户及系统活动,审计系统构造和弱点识别,反映已知进攻的活动模式,向相关人士报警,统计分析异常行为模式,评估重要系统和数据文件的完整性,审计、跟踪管理操作系统,识别用户违反安全策略的行为。

入侵检测一般分为3个步骤,依次为信息收集、数据分析、响应(被动响应和主动响应)。入侵检测系统可以从不同角度分类,包括检测方法、检测对象、反应机制、体系结构、分析时间等。一般来说,主要从检测对象、检测方法来分类。根据检测对象的不同可以分成基于主机的入侵检测系统和基于网络的入侵检测系统;根据检测方法的不同可以分成误用检测系统和异常检测系统。

2 数据挖掘技术

数据挖掘过程一般需要经历确定挖掘对象、数据准备、模型建立、数据挖掘、结果分析和知识应用这样几个阶段。目前数据挖掘技术在网络安全领域的主要应用有:对安全检测对象的海量的审计数据的分析、对安全检测对象的行为数据分析、对安全系统报警事件的数据分析等。目前数据挖掘分析方法中常用的有:关联分析、序列分析、分类分析、聚类分析。

3 基于数据挖掘的入侵检测系统

入侵检测系统的任务就是在提取到的庞大的检测数据中找到入侵的痕迹。入侵分析过程需要将提取到的事件与入侵检测规则进行比较,从而发现入侵行为。

本文设计的入侵检测系统其系统模块如图1所示。

4 序列模式挖掘的研究

序列模式挖掘可以分为五个具体阶段,分别是排序阶段、大项集阶段、换阶段、序列阶段以及选最大阶段。目前主要的序列模式挖掘算法包括:AprioriAll、SPADE、PrefixSpan、SPAM等算法。本文提出一种改进的基于位图的序列模式挖掘算法(sequential patterns mining based on bitmap representation,SMBR),与SPAM算法不同,SMBR算法对序列模式的某些术语进行了重新定义。

定义1序列数据库D是元组的集合,sid为序列标识号。如果序列T是S的子序列(即TíS),称元组包含序列T,则序列T在序列数据库D中的支持数是数据库中包含T的元组数,即support(T)=|{|?DùTíS}|,记作support(T)。给定一个最小支持度阈值minsup,如果序列s的支持度不小于minsup,则称序列s为频繁序列模式。

定义2序列扩展-SE(Sequence Extension)。是在原序列s的末尾添加一个项,新添加项作为序列的一个新元素,即s◇sα=。项扩展-IE(Item Extension)。是在原序列s的末尾添加一个项,该新添加项和原序列s的最后一个元素来组成一个新的元素,其中新添加项为新元素的最后一项,即s◇iα=且k∈an,k<α(表示k发生在α前面)。

性质1(Apriori性质)如果一个序列s的支持度小于minsup,也就是不频繁的序列模式,那么该序列s的任何超序列都是不频繁的序列。

推理1(SE(Sequence Extension)剪枝)如果存在序列s=不满足最小支持度minsup,那么序列s进行序列扩展产生新序列s◇sα=也不频繁。即在产生候选序列时,不必在节点序列s上进行序列扩展。

推理2(IE(Item Extension)剪枝)如果存在序列s=不满足最小支持度minsup,那么序列s进行项扩展产生新序列s◇iα=也不频繁。即在产生候选序列时,不必在节点序列s上进行项扩展。

为了快速计数提出一种简化位图结构来表示序列数据库。将序列数据库(表1)转化为频繁序列首位置表(the first_position table,FPT)(表2)和重复项简单位图表(the simple bitmap table,BT)(表3)。频繁序列首位置表构造方法:以序列中元素为计数单位,若序列首次出现在序列中第几个元素则标示几;若该序列没有出现,则在该序列位置标示0。重复项简单位图表构造方法:以序列中元素为计数单位,将同一序列中重复项以(0 1)简单位图形式标示,若重复项出现在某元素位置则标示1,否则标示0。

SMBR算法描述

算法1生成并简化FPT表和BT表算法

算法2生成所有频繁序列算法

输入:FPT表和BT表,用户定义最小支持度minsup;输出:所有频繁序列模式S={L1,L2,…Lk}

5 实验分析

为测试SMBR算法的有效性,在Windows XP、Pentium IV 2.8GHz、内存512MB实验环境下利用Visual C++实现对算法的测试,主要参数依据:|D|:总序列交易数、|C|:序列中交易的平均长度、|T|:交易中项的平均长度、|S|:最大序列平均长度|I|:最大序列中交易的平均长度。本文将SMBR算法与SPAM算法、BitSPADE算法在算法执行时间和内存使用情况两方面进行比较:第1组实验是对数据集(D3KC6T5S5I5),分别在0.05、0.1、0.15、0.2、0.25等5个不同最小支持度minSup下的算法执行时间,其实验结果如图2所示。第3组实验加大数据库事务数,同时提高最小支持度minSup,对数据集(D10KC15T10S10I10),分别在0.65、0.7、0.75、0.8、0.85等5个不同最小支持度minSup下的算法执行时间,其实验结果如图2所示。

由图2可以得出,支持度小于0.2时,SMBR算法执行时间小于SPAM算法和算法BitSPADE,支持度大于0.2时,三种算法执行时间相当。对于小数据集(D3KC6T5S5I5),支持度相对较大时,满足minSup≥0.2条件的序列锐减,SMBR算法无法发挥简化位图结构的优势。由图3可以得出,当数据集增大时,SMBR算法执行时间和其他两种算法执行时间拉开差距,SMBR算法充分发挥简化位图优势,利用序列首位置和被扩展项首位置快速运算,快速统计计数,减低时间复杂度。由图可见对大数据集(D10KC15T10S10I10)当minSup≤0.7时,SMBR算法执行时间减少近SPAM算法执行时间的三分之一,SMBR算法执行时间减少近BitSPADE算法执行时间的二分之一。

6 结论

将数据挖掘技术引入入侵检测是近年来新出现的研究领域.序列挖掘是数据挖掘的重要范畴.本文提出了一种基于位图序列模式挖掘算法,并将其应用于入侵检测技术中。通过实验检测,证明SMBR算法与SPAM算法相比,有更高的网络入侵检测效率。随着数据挖掘技术在入侵检测的设计开发领域广泛应用,数据挖掘技术会发展得越来越完善。

摘要:随着计算机的发展,网络安全在现代社会中扮演着越来越关键的角色,并成为比较严重的问题。该文详细分析了基于序列模式的数据挖掘技术,并且在挖掘过程中提出了一种新的序列模式算法。

关键词:入侵检测,数据挖掘,序列模式挖掘

参考文献

[1]戴英侠,连一峰,王航.系统安全与入侵检测[M].北京:清华大学出版社,2002.

[2]Han Jiawei,Kamber M.Data Mining:Concepts and Techniques[M].北京:机械工业出版社,2001.

[3]Agrawal R,Srikant R.Mining Sequential Patterns[C]//Taipei:Proceedings of the Eleventh International Conference on Data Engineering,1995:3-10.

[4]Lee Wenke.Stolfo S J.Data mining approaches for intrusion detection[C]//San Antonio:Proc of the 7Th USENIX Security Symp,1998.

序列检测 第5篇

序列图像中运动目标检测与跟踪的主要工作可以分为两方面,即运动目标的检测和运动目标的跟踪,这两方面工作是一个承接的关系,但同时也相互影响。运动目标检测是序列图像运动目标检测与跟踪的第一部分,它就是实时的在被监视的场景中检测运动目标,并将其提取出来。视频序列中的运动目标跟踪一直是计算机视觉、数字视频与处理和模式识别领域中一个重要的研究课题,运动目标跟踪同样也是衔接运动目标检测和目标行为分析和理解的一个重要环节[1,2]。

1 运动目标检测的基本方法

1.1 时域差分法

时域差分法主要利用视频序列中连续的两帧或几帧的差异进行目标检测和提取。对于许多应用来说,检测序列中连续帧之间的差异是非常重要的。因为场景中任何可观察的运动都会体现在场景序列的变化上,如果能检测这种变化,就可以分析其运动特性。

最基本的时域差分法的基本过程如图1所示。

(1) 计算差分Dk

Dk(x,y)=|fk(x,y)-fk-1(x,y)|(1)

式中:fk(x,y)为第k帧中点(x,y)处的灰度值;fk-1(x,y)为第k-1帧中点(x,y)处的灰度值。

(2) 对差分Dk二值化

Rk(x,y)={1ifDk(x,y)>Τ0otherwise(2)

取值为1和0的像素分别对应于前景(运动目标区域)和背景(非运动区域)。在差分后的Dk中包含了连续两帧之间的场景的变化,这种变化由很多因素构成,包括目标的移动、光照、阴影、噪音等,可以认为移动目标的变化是明显的,给定一个阈值T,当差分中某一像素值的差大于给定阈值T时,认为该像素为前景像素,反之则认为是背景像素。

(3) 对二值化Rk进行后处理

这里主要是移动目标的面积应大于某一给定的阈值,可以利用形态学滤波和去除噪声等方法来消除微小区域噪声。

(4) 对后处理结果进行判别

将面积大于给定阈值的区域标示为目标,并得到其完整的位置信息。

实验结果如下:

如图2将第K+1帧和第K帧图像进行差分,然后二值化,再进行后处理得到如图3所示图像。

1.2 背景差分方法

基于背景差分法的原理非常简单,其基本过程如图4所示。

背景差分法假定背景是静止不变的,因此背景不随帧数而变。首先利用式(3),求出当前fk与背景bk的差值Dk

Dk(x,y)=|fk(x,y)-bk(x,y)|(3)

然后根据式(4)对差值进行二值化:

Rk(x,y)={1ifDk(x,y)>Τ0,otherwise(4)

式中:T为阈值,阈值T选择得准确与否直接影响到二值的质量。如果阈值T选得太高,二值中判定为运动目标的区域会产生碎化现象;相反,如果选得太低,又会引入大量的噪声。选择阈值T的最常用的方法是利用灰度直方图求双峰或多峰,选择两峰之间谷底处的灰度值作为阈值。实验结果如图5,图6所示。

1.3 光流法

尽管在运动对象检测方面,相对于背景差分等方法光流法计算复杂、耗时,但光流法不需要预先知道场景的任何信息,而只需要知道相邻视频帧之间的像素运动信息,因此基于光流的运动对象检测避免了依赖于背景模型和背景学习过程的问题。另外,光流法属于基于运动的检测方法,它在处理跟踪问题时要比背景差分算法更容易一些。

光流的概念是Gibson于1950年首先提出的。视觉心理学家认为人与被观察物体发生相对运动时,被观察物体表面带光学特征部位的移动给人提供了运动及结构的信息。当摄像机与场景目标间有相对运动时所观察到的亮度模式运动称为光流,或者说物体带光学特征部位的移动投影到视网膜平面也即平面上就形成光流。光流表达了的变化,它包含了目标运动的信息,可用来确定观察者相对目标的运动情况。光流有三个要素:一是运动(速度场),这是光流形成的必要条件;二是带光学特征的部位(例如有灰度的像素点),它能携带信息;三是成像投影(从场景到平面),因而能被观察到。

光流可以表达运动中的变化,光流中既包含了被观察物体的运动信息,也包含了与其有关的结构信息。通过对光流的分析可以达到确定场景三维结构和观察者与运动物体之间相对运动的目的。对光流的研究一直是计算机视觉的一个重要部分[3,4]。

1.4 小结

从以上可以看出时域差分方法、背景差分方法及光流法都有其各自的优缺点及适用范围,表1是对这三种方法进行比较的直观表。

2 运动目标的跟踪方法

运动目标跟踪是确定同一物体在图像序列不同帧中位置的过程,当运动物体被正确检测出来时,跟踪等价于在连续的图像帧间创建基于位置、速度、形状、纹理、色彩等有关特征的对应匹配问题。目标跟踪的主要工作就是选择好的目标特征和采用适当的搜索方法[5]。

下面介绍两种比较典型的跟踪方法:基于卡尔曼滤波器和基于特征光流法的跟踪方法。

2.1 基于卡尔曼滤波器的跟踪方法[6]

线性卡尔曼滤波是美国工程师Kalman在线性最小方差估计的基础上,提出的在数学结构上比较简单的最优线性递推滤波方法,具有计算量小,存储量低,实时性高的优点。特别是经历了初始滤波的过渡状态后,滤波效果非常好。

基于卡尔曼滤波器目标跟踪算法的实现步骤如下:

(1) 设置初始值

设置初始状态x0,P0,Q0和R1的初始值。

(2) 预测下一时刻目标的位置

这里运用式(5)和式(6),根据扩展的卡尔曼滤波器,预测目标在下一时刻可能出现的位置:

pk+1=pk+vkΔt+akΔt22(5)Δpk+1=Δpk+ΔvkΔt+ΔakΔt22(6)

式中:Δpk+1表示预测的不准确程度,即提供了目标匹配的搜索范围;pk+1表示预测位置的坐标及搜索范围的中心坐标。在实际应用中,往往扩大目标匹配的搜索范围为Δpk+1+ε,其中ε为预设正常数。

(3) 目标匹配搜索

在搜索中要使用目标检测的结果,即将检测到目标的运动区域作为模板。在利用上一步计算得到的目标搜索区域范围内进行目标搜索。若在搜索范围内搜索到运动目标,并且只有一个,那么不再进行目标匹配搜索,直接认为搜索到的目标就是被跟踪的目标。若在搜索范围内搜索到不止一个目标时就需要进行目标匹配搜索,通常可以利用检测到的目标的邻接矩形作为搜索区域以缩小搜索范围。使用基于像素点的亮度差的和作为匹配距离准则:

d=(x+px,y+py)|fk+1(x+px,y+py)-Τk(x,y)|(7)

将找到的使匹配距离最小的目标区域作为被跟踪到的目标,将该区域的复制记为Tk+1,并把它的中心坐标复制给pk+1,则:

目标的测量速度为:

vk+1=pk+1-pkΔt(8)

目标的测量加速度为:

ak+1=vk+1-vkΔt(9)

(4) 卡尔曼滤波器参数的修正

主要根据每帧得到的测量值修正目标的参数,使用IRR(无限冲击响应)滤波器完成对vk,ak和Δvkak的修正,其公式为:

vk+1=avk+1+(1-a)vk(10)Δvk+1=a|vk+1-vk+1|+(1-a)Δvk(11)ak+1=γak+1+(1-γ)ak(12)Δak+1=γ|ak+1-ak+1|+(1-γ)Δak(13)

式中:a,γ为一常数,0≤a,γ≤1。

另外,通常还需要对Δpk+1进行修正,一种简单的修正方法是直接利用pk+1与pk+1之间的差代替Δpk+1,或者使用类似于修正Δvk+1的IRR滤波器方法对Δpk+1进行修正,即:

Δpk+1=β|pk+1-pk+1|+(1-β)Δpk(14)

式中:β为一常数,0≤β≤1。

2.2 基于特征光流法的跟踪方法

光流分析可以分为连续光流法和特征光流法。特征光流法是通过特征匹配求得特征点处的光流。Weng等采用边缘和角点作为特征点,Cumani等在每个边缘点处提取三种属性用于解决特征匹配问题。特征光流法的主要优点在于对目标在帧间的运动限制较小,可以处理大的帧间位移,对噪声的敏感性降低,只处理图像中很少数的特征点,计算量较小;主要缺点是:得到的是稀疏光流场,导致难于提取运动目标的精确形状,特征匹配问题尚未得到较好的解决[7,8]。

假设运动目标在序列首帧中的大概位置已经通过人工锁定或某种检测技术确定出来,所以跟踪中只处理目标及其附近部分的区域而非整幅。本文方法的流程图如图7所示。

首先,从首帧中提取角点,得到角点链。对于以后各帧,不再提取角点,而是利用加权模板相关匹配算法求得上一帧中角点的匹配点,这样在得到本帧角点的同时,也得到了连续两帧图像间的特征光流和光流链;然后由“粗”到“精”对光流进行聚类,得到若干候选类。对每个候选类,计算其参数值,包括:类平均光流、类重心、类的形状模型、类的形状用凸多边形表示,并与曲线图相对应;然后根据相似准则从这些候选类中找出目标类;最后得到目标的精确外轮廓[9]。

2.3 小结

运动目标跟踪是确定同一物体在图像序列不同帧中位置的过程,当运动物体被正确检测出来时,跟踪等价于在连续的图像帧间创建基于位置、速度、形状、纹理、色彩等有关特征的对应匹配问题。目标跟踪的主要工作就是选择好的目标特征和采用适当的搜索方法。

卡尔曼滤波器的跟踪方法是一种经常被采用的方法,这种方法通常被用来对被跟踪目标运动状态进行预测,可以减少搜索区域的大小,提高跟踪的实时性。所以经常被用于和其他跟踪方法结合使用[10]。

特征光流法是一种新颖的跟踪方法,是处理一些目标遮挡和目标失锁等异常情况的有效方法。

表2是这两种方法优缺点及适用范围的对照表。

3 结 语

序列图像中的运动目标检测与跟踪是数字图像处理与识别以及计算机视觉领域研究的主要内容之一,在机器人导航、智能视觉监控系统、医学图像分析、工业检测以及视频图像分析等领域中都有应用。本文介绍了目前运动目标检测与跟踪领域的一些常用方法,指出其优缺点。随着对运动目标检测与跟踪的研究及发展,将会出现很多关于运动目标检测与跟踪的新方法,相信运动目标的检测与跟踪技术将会更加成熟。

参考文献

[1]李艳波,张菁.序列图像中运动目标检测与跟踪算法研究[D].哈尔滨:黑龙江省计算机学会2007年学术交流年会论文集,2007.

[2]李强,赵亦工,高永晶.基于背景差分的动目标检测算法研究[J].遥测遥控,2007,28(6):68-70.

[3]胡以静,李政访,胡跃明.基于光流的运动分析理论及应用[J].计算机测量与控制,2007,15(2):219-221.

[4]朱克忠.基于光流法对移动目标的视频检测与应用研究[D].合肥:合肥工业大学,2007.

[5]邵文坤,黄爱民,韦庆.目标跟踪方法综述[J].影像技术,2006(1):17-19.

[6]Stefano Messelodi,Carla Maria Modena,Nicola Segata,et al.AKalman Filter Based Background Updating Algorithm Robust toSharp Illumilation Changes[A].ICIAP 2005[C].Italy,2005:163-170.

[7]安建虎.相关跟踪与特征匹配技术研究[D].沈阳:中国科学院自动化研究所,2002.

[8]沈美丽,宋华军.基于角点检测的光流目标跟踪算法[J].电子器件,2007,30(4):1 397-1 399.

[9]杨杨,张田文.一种基于特征光流的运动目标跟踪方法[J].宇航学报,2000,21(2):8-15.

序列检测 第6篇

1 基于码本的背景差分方法

基于码本[3,4,5]的背景差分方法针对彩色监控视频,根据像素点的连续采样值的颜色失真程度及其亮度范围将背景像素用一个或多个码本表示,然后利用减背景思想对新输入像素值与其对应码本作比较来提取前景运动目标像素的[6]。也可应用于灰度图像,但需要修改。

1.1 背景码本模型

假设X={x1,x2,…,xN}是训练视频中一个像素的序列采样值,其中xt(t=1,…,N)是RGB向量。设C={c1,c2,…,cL}是该像素的码本,每个码字ci(i=1,…,L)定义为二元组结构vi(R¯i,G¯i,B¯i),auxi=〈Iimin,Iimax,fi,λi,pi,qi〉。其中,IiminIimax是该码字对应像素的最小和最大亮度值;f表示该码字出现的次数;λ表示码字在训练期间没有再次出现的最大时间间隔;pq分别表示该码字出现后的第1次和最后1次匹配时间。

码本生成过程算法如下:

(1)L←0,C←∅。

(2)对于训练视频的每个像素的序列值X={x1,x2,…,xN},xi=(Ri,Gi,Bt),t=1,2,…,N

1)若L=0,C=∅,则创建一个码字

L=L+1,Ι=Rt2+Gt2+Bt2(1)

vL=(R¯t,G¯t,B¯t),auxL=〈I,I,1,t-1,t,t〉 (2)

2)如果码本不为空,则根据以下2个条件从码本中找出与xt匹配的码字cm

颜色相似度

colordist(xt,vm)=|xt|2-xt,vm2|vm|2ε1(3)

亮度范围

brightness(I,〈Immin,Immax〉)=true

αΙmmax|xt|min{βΙmmax,Ιmmin/α}(4)

式中,ε1是全局阈值变量,α<1,β>1,典型地,0.4<α<0.7,1.1<β<1.5,α越大亮度范围越大。算法中α=0.4,β=1.5。

①如果找不到,则利用式(1),式(2)为该像素创建一个码字。

②如果找到cm,其表示为

vm=(R¯m,G¯m,B¯m),auxm=〈Immin,Immax,fm,λm,pm,qm〉 (5)

则更新该码字

vm=[(fmR¯m+Rt)/(fm+1),(fmG¯m+Gt)/(fm+1),(fmB¯m+Bt)/(fm+1)]

auxm=〈min{I,Immin},max{I,Immax},fm+1,max{λm,t-qm},pm,t〉 (6)

(3)对于ci,i=1,…,L,λi=max{λi,(N-qi+pi-1)}。

(4)然后利用λ消除冗余得到代表真实背景的精练的初始码本M(k是码字的索引)

Μ={ck|ckC,λkΤΜ}(7)

其中,阈值TM通常取训练帧数的1/2,即N/2。

1.2 前景目标检测

码本模型根据像素采样值与其码本是否匹配来判断。对于运动目标检测过程中的新输入像素x=(R,G,B)及其对应的码本M,减背景操作BGS(x)定义为:

(1)计算亮度Ι=R2+G2+B2,定义布尔变量flag=0,并给阈值变量ε2赋值。

(2)根据下面两个条件从其码本M中找出与x匹配的码字,如果找到则

colordist(xt,vm)≤ε2

brightness(I,(Immin,Immax))=true (8)

(3)判断是否为前景运动目标像素

BGS(x)={x,flag=0x,flag=1(9)

也就是将满足下面两个条件的像素判断为背景:①像素与某个码字的颜色失真度小于检测门限ε2;②像素的亮度在该码字的亮度范围内。否则被认为是前景像素,无码字与其匹配。

1.3 码本更新

为了达到自适应的码本更新,采取的策略如下:缓存精练后的背景码本MM′,如果一个像素的采样值与已有码本M不匹配,则创建一个新的码字到M′中,并且新码字的周期由时限TM过滤。然后,把重新出现次数超过Tadd的码字增加进M中,把超过时间Tdel都还没被匹配访问的码字从M中删除。具体过程是:

对于新输入像素x=(R,G,B),从M中找出与之匹配的码字Cm并对其按下式更

vm=[(fmR¯m+Rt)/(fm+1),(fmG¯m+Gt)/(fm+1),(fmB¯m+Bt)/(fm+1)]

auxm=〈min{I,Immin},max{I,Immax},fm+1,max{λm,t-qm},pm,t〉 (10)

(1)如果在M中没有匹配的码字,则在M′中进行查找,找到按上式更新,找不到,则创建一个新的码字c′添加到M′。

(2)根据TM′精练M′,即Μ=Μ-{ck|ckΜ,λkΤΜ}

(3)将在M′中停留足够时间的码字移到M中,即

Μ=Μ+{ck|ckΜ,fkΤadd}(11)

(4)从M中删除超过一定时间未被匹配的码字,即

Μ=Μ-{ck|ckΜ,λkΤdel}(12)

2 融合Kalman和Camshift的跟踪方法

该方法的处理流程:在发现新的目标出现后,先使用Kalman跟踪器估计出目标在下一时刻最可能出现的位置,再利用Camshift算法在以该估计位置为中心的窗口范围内搜索,以确定目标的最终位置。将Camshift跟踪的结果作为Kalman跟踪器的观测值,参与下一时刻目标运动的估计。目标初始的质心位置参数和搜索窗口大小由该目标的Kalman跟踪器给出。

2.1 Kalman滤波

Kalman滤波器[1,3,7]是一个对动态系统的状态序列进行线性最小方差误差估计的算法,可以任意一点作为起点来观测,这里使用卡尔曼滤波预测搜索窗的位置。

首先确定状态方程和观测方程:状态方程为Xk+1=AXk+Wk;观测方程为Zk=HXk+Vk

式中,Xk=[x,y,dx,dy]T是系统第k时刻的状态矢量,观测向量Zk=[x,y]T,x和dx分别是目标图像在水平方向位置和运动速度;y和dy分别是目标图像在垂直方向位置和运动速度。A是系统的状态转移矩阵,Wk是系统第k时刻的系统噪声矢量,H是观测矩阵,Vk是第k时刻的观测噪声矢量。假设系统噪声矢量Wk和观测噪声矢量Vk是互不相关的零均值正态白噪声序列,其协方差矩阵分别用QR表示。

其次进行状态预测和状态更新,主要分为以下几个步骤:

(1)状态预测,不考虑Wk,直接使用状态转移矩阵A计算状态预测值X^k+1=AXk

(2)观测向量预测,不考虑Vk,直接使用观测矩阵H计算观测向量预测值Ζ^k+1=ΗX^k+1

(3)计算状态预测方差Ρ^k+1=AΡkAΤ+Q,其中PkXk的协方差的估计值,初始值P0随机确定。

(4)由状态预测值计算搜索窗的位置和大小。将步骤(1)中计算得到的状态预测的位置分量作为搜索窗的中心位置坐标,搜索窗的大小由前两帧图像中目标区域的大小决定

(Bk+1Gk+1)=(1+β)(Bk/Bk-100Gk/Gk-1)(BkGk)(13)

式中,Bk+1,Gk+1分别代表第k+1帧图像中搜索窗的预测宽度和预测高度;Bk,Gk,Bk-1,Gk-1分别代表在第k帧和第k-1帧中目标区域的实际宽度和高度,β为比例系数。

(5)在搜索窗内进行目标区域分割,计算目标区域重心,从而获取实际测量值Zk+1。

(6)计算滤波器增益

Κk+1=Ρ^k+1ΗΤΗΡ^k+1ΗΤ+R(14)

(7)更新状态,为下一帧处理做准备

Xk+1=X^k+1+Κk+1(Ζk+1-Ζ^k+1)(15)

(8)更新状态协方差,用于计算下一帧中的状态预测协方差Ρk+1=(Ι-Κk+1Η)Ρ^k+1,Ι为单位矩阵。

2.2 Camshift跟踪算法

Camshift跟踪算法可以分为3个部分:反向投影计算、Meanshift算法和Camshift算法,算法流程如图1所示,虚线框为Meanshift算法,将Meanshift算法扩展到整个连续序列就形成了Camshift算法。

Camshift 算法流程中,反向投影计算就是计算被跟踪目标的色彩直方图,根据H分量的直方图将原始图像转换为二维的颜色概率分布图,Meanshift算法是其核心部分。对于离散的二维概率分布图,通过颜色概率分布图像的零阶矩、一阶矩可以确定搜索窗的质心位置,过程如下:

(1)计算零阶矩

m00=xyΙ(x,y)(16)

(2)计算xy的一阶矩

m10=xyxΙ(x,y),m01=xyyΙ(x,y)(17)

(3)计算搜索窗的质心位置xc=m10m00,yc=m01m00

3 实验结果

实验在Intel(R) Pentium(R)4 CPU2.40 GHz,512 MB内存,Windows XP,VC6.0的环境下基于Intel开源库OpenCV编程实现。设计实现了在固定背景情况下,也就是在摄像机固定的情况进行的运动目标检测和跟踪。图2是对图像分辨率为360×240,帧率为15帧/s的视频序列进行的检测与跟踪结果。实验证明文中算法具有很好的实用性。

4 结束语

为了对视频序列进行更好的检测与跟踪,文中在目标检测部分采用了基于码本的背景建模方法,该方法可以处理静止背景下的含有运动前景和光照变化的情况,能够通过简单的训练得到背景模型,而且检测率高。只是参数的选择是确定的(ε1=0.96,ε2=0.987)。目标跟踪方面采用的Kalman和Camshift结合的算法,提高了跟踪的精度和速度。实验证明文中的算法在视频序列的检测与跟踪方面具有一定的实用性。

摘要:提出了一种视频序列中运动目标的检测与跟踪算法,该算法采用基于码本背景建模的减背景法与差分法相结合的算法,实现对运动目标的快速精确的检测与提取,也能够在存在前景运动的过程中提取背景,使用卡尔曼滤波对运动目标在下一帧中最可能出现的位置进行估计,在此基础上利用Camshift跟踪算法进行较小范围的搜索和目标匹配,减少了运算量、节约了搜索和匹配的时间、提高了跟踪的速度。实验证明该方法具有一定的实用性。

关键词:码本,背景建模,卡尔曼滤波,Camshift

参考文献

[1]李小鹏,严严,章毓晋.若干背景建模方法的分析和比较[C].广州:第十三届图像图形学学术会议,2003:469-473.

[2]张江山,朱光喜.一种基于Kalman滤波的视频对象跟踪方法[J].中国图像图形学报,2002,7(6):606-609.

[3]代科学,李国辉.一种基于码本的监控视频运动目标检测算法[J].计算机工程,2007,23(7):125-128.

[4]Kim K,Chalidabhongse T H,Harwood D,et al.Back-ground Modeling and Subtraction by Codebook Construction[C].Singapore:Proc.of Int.Conf.on Image Process-ing,2004:3061-3064.

[5]张军,代科学,李国辉.基于HSV颜色空间和码本模型的运动目标检测[J].系统工程与电子技术,2008,3(30):74-78.

[6]Kim K,Chalidabhongse T H,Harwood D,et al.Real-time Foreground-background Segmentation Using Codebook Model[C].Singapore:Proc.of Int.Conf.on Image Processing,2004:3267-3269.

视频图像序列中的运动目标检测技术 第7篇

运动目标检测是视频图像跟踪与识别系统中的关键技术问题,主要用于视频监控、交通流量统计、人体检测与跟踪等。本文主要论述静止背景下运动目标检测的方法和原理。目前常用的方法有帧差法、背景减法、光流法和运动能量法。帧差法原理简单,计算复杂度低;背景减法能较好地检测出运动目标,但是它需要构建背景;光流法和运动能量法能有效地检测出运动目标,但运算复杂,如果没有硬件支持很难达到实时处理的要求。

本文介绍了几种静止背景下的运动目标检测算法。

1 视频序列中运动目标检测的方法

1.1 帧差法

帧差法利用两帧图像亮度差的绝对值来判别图像序列中有无运动物体。设f(x,y,t)和f(x,y,t+Δt)为相邻两帧图像,定义帧差图像为:

d(x,y)=f(x,y,t+Δt)-f(x,y,t)

=m(x,y,t+Δt)-m(x,y,t)+n(x,y,t+Δt)-n(x,y,t) (1)

式中,m(x,y,t)和m(x,y,t+Δt)表示图像的运动区域,n(x,y,t)和n(x,y,t+Δt)表示图像的噪声。在成像过程中噪声n(x,y,t)和n(x,y,t+Δt)的分布具有一定的规律性,通常可假设服从高斯分布,由于服从高斯分布的两个随机变量之差也服从高斯分布,因此帧差图像中的噪声点也服从高斯分布,而运动变化区域则不具备这个性质。

文献[1]通过构建相对噪声滤波器来实现对运动目标的检测,设相邻帧之间的相对噪声n(x,y)服从均值为μ、方差为σ2的高斯分布,为检测出相对噪声,需要估计出相对噪声的特征参数。首先,选择第一幅差分图像的均值、方差作为相对噪声的均值和方差的初始估计值,计算差分图像中各像素的灰度值与相对噪声均值之间的误差,然后根据该像素点误差的大小在下一次的相对噪声均值估计过程中分配相应的权值w,误差小的像素分配的权值大,误差大的像素分配的权值小。最后根据高斯分布的“3σ”特性对差分图像中的相对噪声进行滤波提取出运动变化区域。

文献[2]用统计学中的假设检验来判断像素点是否属于运动目标,设差分图像中的k点属于背景,当像素点(x,y)属于背景时,dk(差分图像中k点的灰度值)不为0的概率为p(dk|H0)。p(dk|H0)服从均值为0,方差为σ2的高斯分布。为了使检测结果更具鲁棒性,取像素(x,y)邻域内像素点的统计量之和作为假设检验的判断依据,即undefined,式中w为像素点(x,y)为中心的检测窗区域(可取3×3窗口或5×5窗口)。由dk/σ服从N(0,1)得到Δk2服从自由度为n的χ2分布,n为检测窗口内像素个数。根据显著性检验方法来检测某点像素值是否属于运动目标。显著性α=P(Δk2>tα|H0)表示将一个背景的点误认为运动目标的点的最大概率,为了确保检验可靠,α应取较小值。

1.2 背景减法

背景减法的原理是将当前帧与背景图像进行差分来得到运动目标区域,这种方法较帧差法能更好的检测和提取运动目标,但是需要构建背景图像,这幅背景图像必须不含运动目标,并且应该能不断地更新来适应当前背景的变化,构建背景图像的方法很多,本文介绍比较常用的几种方法:

文献[3]提出了基于单个高斯模型的背景构建方法,该方法假定连续视频帧中每个像素均是独立的,并且其灰度值遵循高斯分布,随着新的帧到来,更新每个像素点所遵循的相应高斯分布中的参数。文献[4]指出该方法不能很适当的更新背景,原因是在计算背景均值时,属于运动目标的像素点也参加了计算,这样就会将运动目标的像素点叠加到背景中,因此文献[4]提出了一种改进的背景均值的定义。

文献[5]提出了一种自适应的混合高斯模型背景构建的方法,每个像素点的灰度值分布都由多个高斯分布混合表示。

设一个像素点的像素观察值为{X1,…,Xt},则当前像素值的概率可表示为:

undefined

其中K为用来表示像素值的高斯分布的个数,wi,t表示t时刻第i个高斯分布的权值undefined表示第i个高斯分布的均值,∑i,t表示第i个高斯分布的协方差矩阵,而第i个高斯分布函数η(Xt,μi,t,∑i,t)表达式为:

undefined

其中n为自由变量的个数,协方差矩阵∑i,t=σ2iI。用第一幅图像每点的像素值作为该点对应混合高斯分布的均值,并给每个高斯模型赋一个较大的方差和较小的权值。在每一时间,从每一点的多个高斯分布中选择一个或几个作为背景模型,其他均为前景模型,如果当前值与背景模型匹配,则把该点判定为背景,否则为前景。选择背景模型的方法为:首先将每一点的混合高斯模型按权值和标准差的比值(即:w/σ)按从大到小的顺序排列,选择前B个模型作为背景模型,undefined),式中T表示作为背景中点的像素值保持不变的概率,如果T选择过小,则背景通常为单峰,这种情况下采用单一高斯模型的背景构造方法更简单;如果T选择过大,则背景通常为多峰,这样采用混合高斯模型的背景构造方法更适合。当新的帧到来的时候,要对各个像素点的混合高斯模型的参数进行更新,把K个高斯分布按权值和标准差之比w/σ从大到小进行排列,然后选择均值μi,t-1,k和Xi,t最接近的高斯模型,如果找到某个高斯模型ηk与Xi,t匹配,则用下列公式更新ηk的各个参数:

μi,t=(1-α)μt-1+αXi,t (4)

σundefined=(1-α)σundefined+α(Xi,t-μi,t)T(Xi,t-μi,t) (5)

对所有高斯分布的权值用下面的公式进行更新:

wi,k,t=(1-α)wi,k,t-1+αMi,t,k (6)

式中Mi,t,k对于匹配的高斯模型取1,而对于没有匹配的高斯模型取0。如果没有一个高斯模型与Xi,t进行匹配,将w/σ比值最小的高斯模型用均值为Xi,t、方差较高、权值较低的新构造的高斯模型代替。

文献[6]使用Kalman滤波器来对背景进行不断地更新,目标像素根据下式判别:

undefined

其中,I(p)表示当前帧图像中p点像素值;B(p)表示背景图像中p点的像素值;M(p)为运动目标的二值图像中的p点的像素值,如果p点属于运动目标则像素值为1,否则为0;sk(p)为第k次更新时像素点p的阈值,该值可通过自适应方法取得。

文献[7]提出了能处理复杂背景的基于核函数密度估计的背景模型构造方法,该方法无需事先假定背景模型函数,也无需估计模型参数和对参数进行优化,选用的核函数为高斯函数,假定X1,…,Xn为一像素点的N个连续的采样值,在t时刻得到该点像素值为Xt的概率可用核函数的密度估计来计算:

undefined

式中Kh表示窗口宽度为h的核函数,N表示样本的个数。核估计首先需要得到待估计量的一个训练样本集,文献[7]直接将视频序列中的像素值作为样本。但是视频序列中可能包含运动目标,这样势必会将属于运动目标的像素作为背景来计算,这样就会产生误差,故可将视频序列中相邻两帧的差分作为样本。

假定取得M个背景样本,核函数为高斯函数的背景估计为:

undefined

根据p(It(x,y)),利用下式来判断某一像素是否属于运动目标:

undefined

Mt(x,y)为0则说明该点属于背景点,为1属于运动目标。该方法中的背景样本可使用队列FIF0的形式不断更新,且用核密度函数估计公式更新背景。

1.3 光流法

基于光流方法的运动检测采用了运动目标随时间变化的光流特性,该方法的优点是在摄像机运动存在的前提下也能检测出独立的运动目标。然而,大多数的光流计算方法相当复杂,且抗噪性能差,如果没有特别的硬件装置很难应用于实时处理。关于光流更加详细的讨论可参见文献[8]。

1.4 运动能量检测法

运动能量检测法适合于复杂变化的环境,能消除背景中振动的像素,使按某一方向运动的对象更加突出地显现出来,但运动能量检测法不能够精确地分割出对象;关于运动能量的详细论述可参见文献[9]。

2 总 结

运动目标检测技术在智能监控、视频图像跟踪识别等领域起着重要的作用,近年来各国学者针对这一课题进行了广泛深入的研究并取得了很大的成就,本文阐述了几种运动目标检测方法的基本思想和主要公式。虽然迄今为止该领域的研究成果显著,但针对各种方法性能的定量比较工作却寥寥无几。关于运动目标检测方法的定量评估,是否有更好的性能评价准则,如何运用这些准则评价现有的识别方法,仍然是值得深入研究的课题。

参考文献

[1]朱辉,李在铭.视频序列中运动目标检测技术.信号处理,2002,5:448-451.

[2]李俊韬,张海,范跃祖,王力.复杂场景条件下的运动目标检测方法.光电工程,2004,31:36-39.

[3]Wren C,Jani A Azarhaye,Darrell T,Pentland A P.Pfinder:real-timetracking of the humanbody.IEEE Trans.on Patfern Anal.and MachineInfell,1997:780-785.

[4]Koller D,Weber J,Huang T,et al.Towards Robust Autonatic TrafficScene Analysis in Real-time.Proc.ICPR 94,1994,11:126-131.

[5]Stauffer C,Grimson W E L.Adaptive background mixture models forreal-time tracking.Proc IEEE CVPR 1999,6:246-252.

[6]Wu YiMing,Ye XiuQing,Gu WeiKang.Ashadowhandler in traffic mo-nitoring system.IEEE,2002:303-307.

[7]Elgammal A,Harwood D,Davis L S.Non-parametric model for back-ground subtraction.Proc.ECCV,2000,7:751-767.

[8]Barron J,Fleet D,Beauchemin S.Performance of optical flow techniques.International Journal of computer Vision,1994,12(1):42-77.

[9]Richard P.Wildes.Ameasure of motion salience for surveillance appli-cations.In Proc of Image Processing,1998.

[10]Lipton A,Fujiyoshi H,Patil R.Moving target classification and trackingfrom real-time video.Proc IEEE vorkshop on Applications of computervision,Princeton,NJ,1998:8-14.

序列检测 第8篇

1.1 异常行为的概念

人的行为是多种多样的, 相同的行为在不同的环境下也可能出现不同的定义, 这些无疑都给异常行为的分析监测带来了非常大的难题。而且, 目前国际上对异常行为的定义都没有统一的概括。

由于正常行为一般会表现出一定重复特征的状态, 如步行、跑步等, 因此一些学者将这种有周期性的动作行为视为正常行为, 反之, 为异常行为;还有一些学者将小概率事件定义为异常行为等等。由于场景的特殊性, 一种异常行为的定义很难同样应用于其他场景。尽管如此, 人们的探索还在不断的进行着。

一般认为一个较好的异常行为检测模型应该是稳定的且有较好的实时性和较低的误报率。

1.2 异常行为监测技术研发的意义

近年来, 随着科学技术的快速发展, 视频监控已经无处不在。例如在商场、码头、机场、火车站、军事禁区等处, 视频监控都在发挥着作用。目前这些监控视频的后台大都是由人来监控, 这就要求监控人员时刻保持高度警惕。但众所周知, 人由于其生理限制, 注意力不可能随时高度集中, 因此, 就会产生对异常情况的漏报现象。例如, 对于盗窃等事件若不能及时发现, 则只能在事后查看录像取证, 再花费大力气办案追踪, 无疑浪费了大量的人力、物力。

基于视频序列的人体异常行为检测技术的出现, 在很大程度上解决了这一难题。该项技术能够主动识别出视频监控画面内的异常并及时报警, 有效地防止了由于人员疏忽而产生的异常漏报现象。同时, 随着技术的进步, 该技术必将有更加广泛的应用, 极具研究价值。

2 主流检测方法

本小节主要对异常行为监测的主流算法进行介绍, 概括起来, 其方法主要有以下几种:1.基于模板匹配的识别方法;2.基于状态转换图的识别方法;3.基于运动特征的异常行为检测方法。

2.1 基于模板匹配的识别方法

该方法的主要思路是将当前视频帧序列中的图像与在系统中存在的训练好的模板进行比较, 若相似程度大, 则认为是异常行为, 反之, 为正常行为。

该方法计算简单, 容易实现。但由于模板的单一性, 易受环境变化的影响, 鲁棒性较差。

2.2 基于状态转换图的检测方法

该方法将视频帧中的运动物体或静止物体抽象为一个节点, 通过遍历的方法来识别视频帧序列中的运动状态。以一种概率性的方法来对异常行为进行检测。该方法解决了基于模板匹配识别中连续两帧内容联系不足的问题。具有较高的鲁棒性, 目前的使用率较高。

2.3 基于运动特征的异常行为识别方法

前文中曾说道, 异常行为的给概念至今还没有一个统一的概念, 不同场景的异常行为的定义也就不一样, 如下蹲在室内环境下可以被视为正常的情况, 但是在室外如军事禁区等敏感地区将被视为异常情况。因此, 众多学者相继开发出针对特定场景的异常行为检测系统, 如有的针对火车站购票室相同人员经常出现来打击票贩, 军事禁区通过越线检测来识别异常等现象。该方法是目前研究比较热门的方向之一。

还有基于整体能量的异常行为检测方法、基于光流能量的异常行为检测方法等方法。

3 研究难点与发展方向

异常行为检测是建立在对运动目标的识别及运动跟踪的基础之上的, 因此异常行为的检测是离不开前面的基础工作的, 在此, 下文分为目标识别、行为跟踪及异常检测三个方面来进行难点分析。

3.1 目标识别方面

在对目标识别的过程中最重要的一点就是对视频背景的更新, 因为在异常行为检测的过程中, 背景不可能是一成不变的, 它会因为光线、风速、气候、摄像头的移动等产生变化, 因此一个好的背景更新方案是非常必要的。

目前适用的背景建模方法有单高斯背景建模、多高斯背景建模等, 但目前还不能找出一个在稳定性和事实性两方面都好的背景建模方案。未来一个更优秀的背景建模方案将是研究的热点。

3.2 行为跟踪方面

行为跟踪是指在识别到的目标基础之上, 对其行为进行跟踪的方法。行为跟踪的充分进行将为下一步的行为识别做好充分的准备作用, 单个人的跟踪技术目前还是比较成熟的, 但在人多的时候就会不可避免的出现目标重合和相互遮挡的问题, 例如两个相向而行的行人在重合的时候就会发生相互遮挡的问题, 算法不好则会发生目标丢失的现象。目前此问题也已经成为国内外学者研究的重点内容, 将来也会是一个热点研究方向。

3.3 异常检测方面

对于异常行为检测方面的难点及发展方向概括起来主要有以下几点:

(1) 对于复杂异常行为的建模

目前我们所做的异常行为建模都是一些特征非常明显的建模, 如摔倒、斗殴等, 对于偷窃、尾行等特征不明显的异常行为则缺少研究, 未来在复杂行为的建模和研究上将会有新的突破。

(2) 建立异常行为的数据库

目前的数据库还没有国际统一的标准, 还停留在一个较为混乱的状态, 且数据库的容量不太, 无法容下纷繁复杂的人类行为, 这无疑给当前的研究带来了巨大的困难。因此, 未来建立统一的、丰富的人体行为数据库势在必行。

(3) 检测方法的实时性和鲁棒性

实时性和鲁棒性是异常行为检测算法中的重要指标, 也是我们研究的意义所在, 目前的研究现状是:对于简单的行为我们可以保证实时性和鲁棒性;对于复杂的行为, 识别的目的可以达到, 但其算法往往十分复杂, 这势必会造成一定的延时, 因而不能满足实时性的要求, 未来的研究中将会继续开发新的算法, 会有更优秀的算法出现, 解决我们这些一直强调的问题。

4 结论

近年来, 人体异常行为检测成为智能视频研究领域中的热门内容, 无论其在军事还是民用领域中都有非常好的应用前景。目前的研究还都普遍基于较简单的运动模型, 大都是应用在具体的场景之中, 无法适用其他更广泛的场景。未来在人体特征选取、模型建立及准确率等方面还需进一步研究。

参考文献

[1]陈博.视频中人的异常行为检测方法研究.吉林大学, 2013.

[2]张一.智能视频监控中的目标识别与异常行为建模与分析.上海交通大学, 2009.

[3]J.B.Zheng, D.D.Feng, R.C.Zhao.Trajectory matching and classification of video moving objects.In IEEE7th Workshop on Multimedia Signal Processing, 2005.

本文来自 99学术网(www.99xueshu.com),转载请保留网址和出处

【序列检测】相关文章:

中心序列06-10

空间序列07-01

学习序列08-31

序列图像分析07-11

Logistic序列07-16

随机变量序列08-02

学习活动序列09-04

前导序列工程06-16

序列化作文05-09

作文序列训练开头07-13

上一篇:通信机房下一篇:单元管理