视频序列中对的运动目标提取.docx
《视频序列中对的运动目标提取.docx》由会员分享,可在线阅读,更多相关《视频序列中对的运动目标提取.docx(15页珍藏版)》请在三一文库上搜索。
1、武汉理工大学专业导论综述题目:专业导论综述完成人:师敏班级:100l班专业:电路与系统学制:2.5年学号:视频序列中对运动目标的提取摘要:本文主要讨论视频序列中运动目标的检测和提取算法,在静止背景下的目标检测方面,介绍了帧间差法的根本原理及其特点;研究了利用混合高斯模型提取具有扰动的背景模型的方法,分析了混合高斯模型的优缺点;并简要介绍了最常用的微分光流法。关键字:帧间差法、背景模型、混合高斯模型、光流法Abstract:Thisarticlefocusesonmovingobjectsinvideosequencesinthedetectionandextractionalgorithms,
2、inthestaticcontextoftargetdetection,theframedifferencemethodintroducedthebasicprinciplesandcharacteristics;ofGaussianmixturemodelextractionusingabackgroundmodelwithdisturbancemethodtoanalyzetheadvantagesanddisadvantagesofGaussianmixturemodel;andbrieflydescribesthemostcommonlyuseddifferentialopticalf
3、lowmethod.Keywords:framedifference,backgroundmodel,Gaussianmixturemodel,opticalflow0引言:随着国民经济的快速增长、国力的不断增强和社会的迅速进步,银行、电力、交通、平安、仓储、建筑以及军事设施等领域对平安防范和现场记录报警系统的需求与日俱增,要求越来越高,从而促进了视频监控系统的开展。同时由于计算机硬件技术的开展,计算机在处理速度、存储容量、并行计算等方面的性能快速提高,使智能化的视频监控序列图像的快速理解成为可能。1视频序列的特点自动视频监视技术的主要内容之一就是监视特定场景中是否有新目标出现,这个任务的最根
4、本的内容可以看作是在视频序列中检测并提取这样两种类型的目标:运动目标以及原先场景中未出现而后又停止并滞留在场景中的新目标。目标提取,就是当目标检测算法检测到有目标出现时,把这个目标从视频序列图像中分割提取出来,为下一步目标跟踪和识别提供数据。因此一个视频监视系统工作的好与坏,目标检测和提取算法是非常关键的。人们总希望一个好的视频目标检测和提取算法,能适用于监视各种环境。但实际应用中要解决这个问题是十分困难的,因为实际应用中不但要考虑到算法要尽量适应于多种环境。要进行自动目标识别与跟踪,就要将图像中的运动目标提取出来,如何快速有效地把运动目标提取出来是一个很大的问题。在背景单一,目标明确的情况下
5、如地对空导弹跟踪系统,背景为天空,目标是飞机,这样的问题就相对简单一点,我们可以利用灰度的不同,用一些简单的阈值分割方法将它们从背景中提取出来。但是如果背景很复杂,如空对地导弹的跟踪系统,而且当今随着科技的开展,电视跟踪系统被越来越多的用于视频监控系统中,例如可以用来统计公路上的车流量,这样的背景就更加复杂,背景和目标的灰度差变得很小,甚至背景和目标的灰度是交叉的,无法简单的用一张图片上的信息把运动目标提取出来。所以,就需要找出一种在复杂背景下的可靠的目标提取方法。一个实时的视频采集系统都具有以下特性:(1)背景的连续性和差异性。在实时监控系统中,由于视频采样的速度很快,一般每秒采样20到3
6、0帧。相对于运动物体,背景在一段时间内是静止的,或者连续的,总之不会变化很大的;同时由于光照,干扰等因素的存在,背景又是会变化的,这些变化对于运动物体的提取来说就是干扰。(2)目标形状的连续性。运动目标一般在一段时间内的变化是连续的,不会发生突变。(3)目标位置的连续性。运动物体的轨迹一般是连续变化的。相邻帧之间的差异是很小的,可以利用这一点定位出运动物体的当前位置。4)一般情况下,运动目标的面积要比背景的面积小。运动区域的有效分割对于目标分类、跟踪和行为理解等后期处理非常重要,因为以后的处理过程仅仅考虑图像中对应于运动区域的像素。然而,由于背景图像的动态变化,如天气、光照、影子及混乱干扰等的
7、影响,使得运动检测成为一项相当困难的工作。常用的运动检测的方法有:帧间差法、背景差法、光流法。3帧间差法帧间差分法主要是利用视频序列中连续的两帧或几帧图像的差异来进行目标检测和提取的。一个最根本的帧间差分法的过程如下图。图1帧间差分法框图假设摄像机位置固定并且光照恒定,那么在不同时刻上获取的图像之间的简单相减使得运动检测成为可能。这个运动检测的原理和人眼检测运动物体的原理也有相似之处,因为人眼对视场中的运动物体也是通过分析前后时间图像的不同来识别运动物体的。首先计算第t帧图像与第LI帧图像之间的差异。得到差分后的图像D,然后对差分后图像B进行二值化,当差分图像中某一像素的差大于某一个给定的阈值
8、时,那么认为该像素为可能的目标像素,反之那么认为是背景像素。在差分图像2二值化后得到尺,最后对其进行连通性分析,当某一连通的区域面积大于某一给定的阈值,那么检测到目标。并认为该区域就为目标所占的区域。如果场景中没有运动的目标,那么连续帧图像之间变化很小(实际应用中,由于受到环境亮度变化、电路噪声、A/D噪声等影响,即使图像未变化,帧间差也往往不为零).反之假设有运动目标进入,那么会引起图像变化,运动估计中有一个依据是图像强度的变化,可以用图像序列中相邻时间的一对图像的差来表示强度。这种计算简单、运算量小、检测速度快,并且容易实现实时监视,而且由于相邻帧的时间间隔一般比拟短。因此该方法对场景光线
9、的变化一般不太敏感。使用帧间差方法的时候,可以将帧间的差先存起来,然后用阈值分割的方法分割出差分图像。总的来说,帧间差分法计算简单,速度快,由于相邻两帧图像之间时间间隔较短,所以算法对光线的变化不是非常敏感。但是,这种方法的精度不高,而且对两帧之间的时间间隔有要求,如果帧率过大,导致目标重叠,检测不出目标;如果帧率过小,那么会产生假目标,导致错误。实验结果及程序如下:SOUrC=avirad(,E:shuzishipinCod2(BG_Extraction)san_fran_traffic_3C)Sc_QVGA_CinPak.avi,);fr=SOUrC(1).CClata;fr_bw=rgb
10、2gray(fr);T=20;forn=2:100cur=SOUrC(n).cdata;cur_bw=rgb2gray(cur);diff=abs(cur_bw-fr_bw);diff=diffTfigure(1),subplot(1,2,1),imshow(cur_bw),subplot(1,2,2),imshow(diff);frbw=curbw;end4混合高斯背景模型现实中背景常常不是一成不变的,例如光照变化,树叶随风飘动,水面波光闪动等,这就使得背景的变化不是按照单蜂的形式。如果说用上述的高斯背景更新方法还能对光照等缓慢的变化起适应作用的话,那么当在光照变化时,树叶也同时飘动的话将造
11、成背景的不确定性。即多模态背景的情景,在这种情况下,就需要利用多个单模型的集合来模拟一个场景中一个像素的变化情况,即对背景用多个高斯模型来综合表述。多模态背景的情形那么需要用多个分布来共同描述一个像素点上的颜色分布,StaUffer等提出了一种自适应混合高斯模型,对每个像素采用了多个高斯模型的混合表示。用(X,)来表示均值为,协方差矩阵为的高斯分布的概率密度函数。我们选择多个高斯分布的混合去模拟每个像素的历史记录X1,X2,Xt,设用来描述每个点颜色分布的高斯分布共有K个,分别记为:(Xt,it,it)i=l,2K;其中下标t表示时间。因此当前像素Xt的概率为:KP(XJ=J,r(X“)z=l
12、其中是每个单模型的权值,其大小表达了当前用这个模型表示像素时的可靠程度;为这个单模型的均值,表达了每个单峰分布的中心;“为这个单模型的单峰分布的宽度大小,其大小表达了像素值不稳定的程度;K表达了像素值多分布的峰的个数,K的取值依赖于像素值分布情况,同时也取决于系统的计算能力,通常取值为3-5之间,是预先设定的。本文根据各个像素的值的分布情况,动态地建立模型。可以看出,上述方法把一个像素值的观测用多个单模型来表示。为了使模型能不断贴近当前像素值的分布规律,需要对每一个新到的像素值更新这个模型的参数。其参数修正步骤如下:1) 对于每一个新的像素,首先检测其是否匹配这个模型,检测的方法是:match
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 视频 序列 运动 目标 提取
