• 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
    • / 18
    • 下载费用:30 金币  

    重庆时时彩任三: 一种基于螺旋视觉运动模型的视频跟踪方法.pdf

    关 键 词:
    一种 基于 螺旋 视觉 运动 模型 视频 跟踪 方法
      专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    摘要
    申请专利号:

    CN201611187227.7

    申请日:

    2016.12.21

    公开号:

    CN106683115A

    公开日:

    2017.05.17

    当前法律状态:

    授权

    有效性:

    有权

    法律详情: 授权|||实质审查的生效IPC(主分类):G06T 7/246申请日:20161221|||公开
    IPC分类号: G06T7/246(2017.01)I 主分类号: G06T7/246
    申请人: 中国矿业大学
    发明人: 云霄; 孙彦景
    地址: 221116 江苏省徐州市铜山区大学路中国矿业大学科研院
    优先权:
    专利代理机构: 南京瑞弘专利商标事务所(普通合伙) 32249 代理人: 彭雄
    PDF完整版下载: PDF下载
    法律状态
    申请(专利)号:

    CN201611187227.7

    授权公告号:

    ||||||

    法律状态公告日:

    2018.04.06|||2017.06.09|||2017.05.17

    法律状态类型:

    授权|||实质审查的生效|||公开

    摘要

    本发明公开了一种基于螺旋视觉??运动模型的视频跟踪方法,该方法将视频目标跟踪描述为一个类螺旋型过程,设计一个收敛性迭代模型寻求最优跟踪结果以解决这一跟踪难题;为了发挥视觉型跟踪方法与运动型跟踪方法各自的优势,将视觉型跟踪模型与运动型跟踪模型相结合,配合协作,优势互补;将每个迭代过程分为视觉分类、运动估计与风险分析三个学习步骤,并根据各自的表现做出相应修正;整个视频跟踪被设计为一个通过周期性迭代将分别来自于视觉层与运动层上的弱分类器组合成一个强分类器的过程。

    权利要求书

    1.一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于,包括以下步骤:
    步骤1)输入每帧测试图像;
    步骤2)在步骤1)中输入的测试图像的前一帧图像目标位置周围提取候选样本图像块,
    其中,第一帧图像目标位置由手工框定;
    步骤3)利用压缩跟踪原理,将步骤2)中取得的候选样本图像块进行高维向量压缩映
    射,得到低维的压缩特征向量;
    步骤4)通过朴素贝叶斯分类器对步骤3)中得到的压缩特征向量计算分类器响应值,并
    计算最大响应值,对应的候选样本框位置记为视觉层跟踪结果,并更新分类器参数;
    步骤5)通过步骤3)中得到的压缩特征向量计算视觉层误差率;
    步骤6)根据步骤4)得到的视觉层跟踪结果利用卡尔曼滤波器计算运动层跟踪结果;
    步骤7)通过步骤6)得到的运动层跟踪结果计算运动层误差率;
    步骤8)计算步骤4得到的视觉层跟踪结果与模板间的欧氏距离,以及步骤6)得到的运
    动层跟踪结果与模板间的欧氏距离,并分别计算出视觉层似然函数与运动层似然函数;
    步骤9)通过步骤8)得到的视觉层似然函数与运动层似然函数分别计算视觉层权值与
    运动层权值;
    步骤10)通过步骤9)得到视觉层权值与运动层权值以及步骤5)得到的视觉层误差率与
    步骤7)得到的运动层误差率计算风险,当迭代过程中的风险函数减少值小于阈值时,停止
    迭代;
    步骤11)将步骤10)停止迭代得到的运动层跟踪结果作为该迭代过程的最终运动层跟
    踪结果;
    步骤12)在步骤11)得到的最终运动层跟踪结果周围提取正负样本,为下一帧跟踪做准
    备。
    2.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤2)中提取候选样本图像块方法为:其中,k
    为迭代次数,x(k)为位置坐标,为上一次迭代的运动层跟踪结果,γ为样本参数,Xγ表示
    候选样本图像块。
    3.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤3)中计算低维的压缩特征向量步骤如下:
    步骤3-1)根据提取到的候选样本图像块,通过类哈尔小波滤波器计算候选样本图像块
    的多尺度高维图像特征向量表示n维实数;
    步骤3-2)通过一个随机矩阵表示m×n维实数,将h压缩为压缩特征向量

    v=Φh
    其中,m远小于n,随机矩阵Φ定义为:
    <mrow> <msub> <mi>&Phi;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msqrt> <mi>s</mi> </msqrt> <mo>&times;</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mi>w</mi> <mi>i</mi> <mi>t</mi> <mi>h</mi> <mi> </mi> <mi>p</mi> <mi>r</mi> <mi>o</mi> <mi>b</mi> <mi>a</mi> <mi>b</mi> <mi>i</mi> <mi>l</mi> <mi>i</mi> <mi>t</mi> <mi>y</mi> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <mi>s</mi> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>w</mi> <mi>i</mi> <mi>t</mi> <mi>h</mi> <mi> </mi> <mi>p</mi> <mi>r</mi> <mi>o</mi> <mi>b</mi> <mi>a</mi> <mi>b</mi> <mi>i</mi> <mi>l</mi> <mi>i</mi> <mi>t</mi> <mi>y</mi> <mn>1</mn> <mo>-</mo> <mfrac> <mn>1</mn> <mi>s</mi> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <mi>w</mi> <mi>i</mi> <mi>t</mi> <mi>h</mi> <mi> </mi> <mi>p</mi> <mi>r</mi> <mi>o</mi> <mi>b</mi> <mi>a</mi> <mi>b</mi> <mi>i</mi> <mi>l</mi> <mi>i</mi> <mi>t</mi> <mi>y</mi> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <mi>s</mi> </mrow> </mfrac> <mo>.</mo> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>
    Φij为矩阵Φ的第i行第j列的元素,s=n/4。
    4.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤4)中计算分类器最大响应值步骤如下:
    步骤4-1)将第i个候选样本图像块的压缩特征向量表示为v(i)={v1(i),…,vm(i)},假
    设v(i)中的每个元素vj(i),j=1,…,m相互独立,并用朴素贝叶斯分类器对其进行建模,则
    第k次迭代过程中v(i)的分类器响应值S(k)(i)为:
    <mrow> <msup> <mi>S</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>log</mi> <mo>{</mo> <mfrac> <mrow> <msubsup> <mo>&Pi;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </msubsup> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>1</mn> <mo>&rsqb;</mo> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mo>&Pi;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </msubsup> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>0</mn> <mo>&rsqb;</mo> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>0</mn> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>}</mo> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>log</mi> <mo>{</mo> <mfrac> <mrow> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>1</mn> <mo>&rsqb;</mo> </mrow> <mrow> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>0</mn> <mo>&rsqb;</mo> </mrow> </mfrac> <mo>}</mo> <mo>,</mo> </mrow>
    其中,p(y(k)=1)=p(y(k)=0),y(k)∈{0,1}表示正负样本标签,表示第k次迭代得
    到的vj(i),和分别表示正负后验概率,假设分类器中的
    条件分布是高斯分布:
    <mrow> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>1</mn> <mo>&rsqb;</mo> <mo>~</mo> <mi>N</mi> <mrow> <mo>(</mo> <msubsup> <mi>&mu;</mi> <mi>j</mi> <mrow> <mn>1</mn> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>&sigma;</mi> <mi>j</mi> <mrow> <mn>1</mn> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>0</mn> <mo>&rsqb;</mo> <mo>~</mo> <mi>N</mi> <mrow> <mo>(</mo> <msubsup> <mi>&mu;</mi> <mi>j</mi> <mrow> <mn>0</mn> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </msubsup> <mo>,</mo> <msubsup> <mi>&sigma;</mi> <mi>j</mi> <mrow> <mn>0</mn> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
    步骤4-2)计算分类器最大响应值:
    S(k)(im)=argmaxiS(k)(i)
    并将该最大响应值S(k)(im)对应的候选样本框位置记为视觉层跟踪结果其对应的
    候选样本图像块为第im个候选样本图像块;
    步骤4-3)更新分类器参数方法为:正高斯参数通过
    和的方式
    更新,其中学习参数λ>0,μ1(k)和σ1(k)为积累高斯均值和方差;负高斯参数更新方
    式同正高斯分布。
    5.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    步骤5)通过步骤3)中得到的压缩特征向量计算视觉层误差率;
    所述步骤5)中计算视觉层误差率步骤如下:
    步骤5-1)通过下式计算第i个候选样本图像块的误差error(k)(i):
    <mrow> <msup> <mi>error</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>log</mi> <mo>{</mo> <mfrac> <mrow> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>0</mn> <mo>&rsqb;</mo> </mrow> <mrow> <mi>p</mi> <mo>&lsqb;</mo> <msubsup> <mi>v</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mn>1</mn> <mo>&rsqb;</mo> </mrow> </mfrac> <mo>}</mo> </mrow>
    步骤5-2)将第im个候选样本图像块的归一化误差率定义为视觉层误差率
    <mrow> <msubsup> <mi>E</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <mrow> <msup> <mi>error</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mi>m</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>argmin</mi> <mi>i</mi> </msub> <msup> <mi>error</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <msub> <mi>argmax</mi> <mi>i</mi> </msub> <msup> <mi>error</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>argmin</mi> <mi>i</mi> </msub> <msup> <mi>error</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>.</mo> </mrow>
    6.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤6)利用卡尔曼滤波器计算运动层跟踪结果步骤如下:
    步骤6-1)在卡尔曼滤波器的预测阶段,计算状态和误差协方差:
    <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mi>F</mi> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>P</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>=</mo> <msup> <mi>FP</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <msup> <mi>F</mi> <mi>T</mi> </msup> <mo>+</mo> <msup> <mi>Q</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced>
    其中,F为状态矩阵,P为状态估计误差的协方差矩阵,Q为系统噪声协方差,k表示迭代
    次数,T表示矩阵转置符号,表示的先验估计值,表示的过程估计值,表
    示的后验估计值;
    步骤6-2),在卡尔曼滤波器的观测阶段,将运动层跟踪结果更新为:
    <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>K</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <msup> <mi>P</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <msup> <mi>H</mi> <mi>T</mi> </msup> <msup> <mrow> <mo>(</mo> <msup> <mi>HP</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <msup> <mi>H</mi> <mi>T</mi> </msup> <mo>+</mo> <mi>R</mi> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>P</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mrow> <mo>(</mo> <mi>I</mi> <mo>-</mo> <msup> <mi>K</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mi>H</mi> <mo>)</mo> </mrow> <msup> <mi>P</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msup> <mi>K</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <msup> <mi>z</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>-</mo> <mi>H</mi> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced>
    其中,K为卡尔曼增益,H为观测矩阵,R为观测噪声协方差,I为单位矩阵,观测状态z(k)
    定义为;
    <mrow> <msup> <mi>z</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msubsup> <mi>x</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msup> <mi>S</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mi>m</mi> </msub> <mo>)</mo> </mrow> <mo>&gt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <msubsup> <mi>x</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
    S(k)(im)表示分类器最大响应值,表示视觉层跟踪结果。
    7.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤7)中计算运动层误差率的方法如下:
    <mrow> <msubsup> <mi>E</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msup> <mrow> <mo>(</mo> <mfrac> <mrow> <msubsup> <mi>x</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <mrow> <msubsup> <mi>x</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mrow> <mo>(</mo> <mfrac> <mrow> <msubsup> <mi>x</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <mrow> <msubsup> <mi>x</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mover> <mi>x</mi> <mo>^</mo> </mover> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
    所述步骤10)计算风险方法如下:
    <mrow> <msup> <mi>R</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msup> <mo>=</mo> <msubsup> <mi>w</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>E</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>w</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>E</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>.</mo> </mrow>
    8.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤8)中计算视觉层似然函数与运动层似然函数步骤如下:
    步骤8-1)计算视觉层跟踪结果和运动层跟踪结果与模板间的欧氏距离:
    <mrow> <msubsup> <mi>&rho;</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>y</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>;</mo> </mrow>
    <mrow> <msubsup> <mi>&rho;</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>y</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>;</mo> </mrow>
    其中,表示视觉层跟踪结果与模板间的欧氏距离,表示运动层跟踪结果与模板
    间的欧氏距离,为视觉层跟踪结果的位置坐标,为
    运动层跟踪结果的位置坐标;
    步骤8-2)视觉层似然函数与运动层似然函数计算如下:
    <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>L</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <msub> <mi>&lambda;</mi> <mi>o</mi> </msub> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&rho;</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mi>L</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <msub> <mi>&lambda;</mi> <mi>o</mi> </msub> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&rho;</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced>
    其中,表示视觉层似然函数,表示运动层似然函数,λo为似然函数控制参数。
    9.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤9)计算视觉层权值与运动层权值方法如下:
    <mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>w</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>0</mn> <mo>,</mo> <msubsup> <mi>w</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi> </mi> <msubsup> <mi>L</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>&lt;</mo> <msub> <mi>T</mi> <mi>w</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mi>w</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>1</mn> <mo>,</mo> <msubsup> <mi>w</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>0</mn> </mrow> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> <mi>i</mi> <mi>f</mi> <mi> </mi> <msubsup> <mi>L</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>&lt;</mo> <msub> <mi>T</mi> <mi>w</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mi>w</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <msubsup> <mi>L</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <msubsup> <mi>L</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>L</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> <mo>,</mo> <msubsup> <mi>w</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mfrac> <msubsup> <mi>L</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mrow> <msubsup> <mi>L</mi> <mrow> <mi>v</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>L</mi> <mrow> <mi>m</mi> <mi>o</mi> </mrow> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> </mrow> </mtd> <mtd> <mrow> <mi>e</mi> <mi>l</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow>
    其中,阈值λw为阈值控制参数,表示负样本与模板间欧氏距离均
    值。
    10.根据权利要求1所述的一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于:
    所述步骤12)在跟踪结果周围提取正负样本方法为:
    正样本和负样本
    其中,k为迭代次数,x(k)为位置坐标,为上一次迭代的运动层跟踪结果,α,β,为样本参
    数。

    说明书

    一种基于螺旋视觉-运动模型的视频跟踪方法

    技术领域

    本发明涉及一种基于螺旋视觉-运动模型的视频跟踪方法,属于视频目标跟踪技
    术领域。

    背景技术

    在实际生活中,在银行、ATM自动取款机、交通信号灯、高速公路、公交车站、地铁
    站、机场、码头等公共场所或重要设施场所设立视频监控摄像头对行人行为进行实时监视
    是十分必要的。此外,在追踪通缉犯时,为了减轻繁琐的人工工作量,需要在无人监守的视
    频监测系统中对复杂环境下的行人和车辆进行实时跟踪与人脸识别,并对其进行行为分
    析。因此,对移动物体进行有效的检测和跟踪在监视公共运输及重要资产的问题上起到极
    其关键的作用。21世纪是一个充满了机遇和挑战的时代,对信息提取、检测、交流等领域的
    发展提出了更高的要求,从而对视频目标跟踪也提出了与日俱增的要求。

    视频跟踪是一种对摄像机采集到的视频图像序列中感兴趣目标进行追踪和定位
    的过程,它能够挖掘出图像所包含的时间域和空间域上的特征信息,对感兴趣的运动目标
    进行特征提取、捕捉和跟踪,从而计算出运动目标在每一帧图像中的二维坐标位置或运动
    参数,这些收集到的信息可用来实现更高层的视觉任务,如目标形态行为识别、运动模式分
    析、图形理解等。视频目标跟踪是计算机视觉研究的核心课题之一,计算机视觉是一种用计
    算机替代人眼和人脑感知和理解外界的学科,目前是非常前沿的研究领域之一,它融合了
    图像处理、模式识别、人工智能、自动控制以及计算机等许多领域的先进技术。

    随着计算机和存储成本的大幅下降,高端计算机和高质量视频摄影机的不断普
    及,以及视频跟踪技术越来越广阔的市场前景,人们对自动视频分析能力的需求不断提升,
    从而更加关注视频目标跟踪算法,这也使得大量关于视频目标跟踪技术的文献在近几年中
    先后涌现。虽然视频跟踪技术获得了广泛的研究并取得了长足的进步,但是现实环境中许
    多情况的发生都会影响视频图像中对目标的可靠跟踪,如三维空间投影到二维平面所造成
    的信息缺失,图像中不可避免的噪声,目标自身在运动过程中的旋转、缩放、扭曲等复杂变
    化,加上背景的拥簇、复杂物体移动、外物遮挡和光线变化等,因此设计出能够在各种复杂
    环境下准确、快速、稳定地跟踪视频目标的方法,仍然是一项极具挑战性的任务和急需解决
    的课题。

    视频跟踪方法可分为视觉型与运动型方法。前者利用视频目标的视觉表观特征在
    每一帧视频中独立地进行定位跟踪,忽略了帧与帧之间的关联性,因此对目标视觉表观特
    征的变化具有高敏感性。相反后者着重于利用帧间信息对目标的运动状态进行估计,但容
    易在跟踪中积累误差。由于存在各自的优缺点,单独的视觉型与运动型方法都无法实现稳
    健、可靠的跟踪,本发明提出的视觉-运动模型能够有效解决上述难题。

    此外,视频目标跟踪问题实质是一个极小化求解问题,该问题具有数值不稳定性,
    是个非确定性问题,现有视频跟踪方法具有自上而下的结构特点,因此存在低灵活性、误差
    积累和漂移问题,本发明提出的类螺旋型方法能够有效解决上述难题。

    发明内容

    发明目的:为了克服现有技术中存在的不足,本发明提供一种基于螺旋视觉-运动
    模型的视频跟踪方法,

    为了解决视频目标跟踪这一非确定性问题,与传统自上而下结构的跟踪方法不同
    的是,本发明从发挥视觉型跟踪方法与运动型跟踪方法各自优势的思想出发,将视觉型跟
    踪模型与运动型跟踪模型相结合,配合协作,优势互补。此外,将视频目标跟踪描述为一个
    类螺旋型过程,设计一个收敛性迭代模型寻求最优跟踪结果以解决视频目标跟踪这一非确
    定性难题。将每个迭代过程分为视觉分类、运动估计与风险分析三个学习步骤,并根据各自
    的表现做出相应修正。将整个视频跟踪设计成一个通过周期性迭代将分别来自于视觉层与
    运动层上的弱分类器组合成一个强分类器的过程。

    技术方案:为实现上述目的,本发明采用的技术方案为:

    一种基于螺旋视觉-运动模型的视频跟踪方法,其特征在于,包括以下步骤:

    步骤1)输入每帧测试图像。

    步骤2)在步骤1)中输入的测试图像的前一帧图像目标位置周围提取候选样本图
    像块,其中,第一帧图像目标位置由手工框定。

    步骤3)利用压缩跟踪原理,将步骤2)中取得的候选样本图像块进行高维向量压缩
    映射,得到低维的压缩特征向量。

    步骤4)通过朴素贝叶斯分类器对步骤3)中得到的压缩特征向量计算分类器响应
    值,并计算最大响应值,对应的候选样本框位置记为视觉层跟踪结果,并更新分类器参数。

    步骤5)通过步骤3)中得到的压缩特征向量计算视觉层误差率。

    步骤6)根据步骤4得到的视觉层跟踪结果利用卡尔曼滤波器计算运动层跟踪结
    果。

    步骤7)通过步骤6)得到的运动层跟踪结果计算运动层误差率。

    步骤8)计算步骤4得到的视觉层跟踪结果与模板间的欧氏距离,以及步骤6)得到
    的运动层跟踪结果与模板间的欧氏距离,并分别计算出视觉层似然函数与运动层似然函
    数。

    步骤9)通过步骤8)得到的视觉层似然函数与运动层似然函数分别计算视觉层权
    值与运动层权值。

    步骤10)通过步骤9)得到视觉层权值与运动层权值以及步骤5)得到的视觉层误差
    率与步骤7)得到的运动层误差率计算风险,当迭代过程中的风险函数减少值小于阈值时,
    停止迭代。

    步骤11)将步骤10)停止迭代得到的运动层跟踪结果作为该迭代过程的最终运动
    层跟踪结果。

    步骤12)在步骤11)得到的最终运动层跟踪结果周围提取正负样本,为下一帧跟踪
    做准备。

    所述步骤2)中提取候选样本图像块方法为:其
    中,k为迭代次数,x(k)为位置坐标,为上一次迭代的运动层跟踪结果,γ为样本参数,Xγ
    表示候选样本图像块。

    所述步骤3)中计算低维的压缩特征向量步骤如下:

    步骤3-1)根据提取到的候选样本图像块,通过类哈尔小波滤波器计算候选样本图
    像块的多尺度高维图像特征向量表示n维实数。

    步骤3-2)通过一个随机矩阵表示m×n维实数,将h压缩为压缩特征
    向量

    v=Φh

    其中,m远小于n(即|m±n|/n≈1),随机矩阵Φ定义为:


    Φij为矩阵Φ的第i行第j列的元素,s=n/4。

    所述步骤4)中计算分类器最大响应值步骤如下:

    步骤4-1)将第i个候选样本图像块的压缩特征向量表示为v(i)={v1(i),…,vm
    (i)},假设v(i)中的每个元素vj(i),j=1,…,m相互独立,并用朴素贝叶斯分类器对其进行
    建模,则第k次迭代过程中v(i)的分类器响应值S(k)(i)为:



    其中,p(y(k)=1)=p(y(k)=0),y(k)∈{0,1}表示正负样本标签,表示第k次迭
    代得到的vj(i),和分别表示正负后验概率,假设分类器
    中的条件分布是高斯分布:


    步骤4-2)计算分类器最大响应值:

    S(k)(im)=argmaxi S(k)(i)

    并将该最大响应值S(k)(im)对应的候选样本框位置记为视觉层跟踪结果其对
    应的候选样本图像块为第im个候选样本图像块。

    步骤4-3)更新分类器参数方法为:正高斯参数通过

    和的
    方式更新,其中学习参数λ>0,μ1(k)和σ1(k)为积累高斯均值和方差。负高斯参数更
    新方式同正高斯分布。

    所述步骤5)中计算视觉层误差率步骤如下:

    步骤5-1)通过下式计算第i个候选样本图像块的误差error(k)(i):


    步骤5-2)将第im个候选样本图像块的归一化误差率定义为视觉层误差率


    所述步骤6)利用卡尔曼滤波器计算运动层跟踪结果步骤如下:

    步骤6-1)在卡尔曼滤波器的预测阶段,计算状态和误差协方差:


    其中,F为状态矩阵,P为状态估计误差的协方差矩阵,Q为系统噪声协方差,k表示
    迭代次数,T表示矩阵转置符号,表示的先验估计值,表示的过程估计值,
    表示的后验估计值。

    步骤6-2),在卡尔曼滤波器的观测阶段,将运动层跟踪结果更新为:


    其中,K为卡尔曼增益,H为观测矩阵,R为观测噪声协方差,I为单位矩阵,观测状态
    z(k)定义为。


    S(k)(im)表示分类器最大响应值,表示视觉层跟踪结果。

    所述步骤7)中计算运动层误差率的方法如下:


    所述步骤10)计算风险方法如下:


    所述步骤8)中计算视觉层似然函数与运动层似然函数步骤如下:

    步骤8-1)计算视觉层跟踪结果和运动层跟踪结果与模板间的欧氏距离:



    其中,表示视觉层跟踪结果与模板间的欧氏距离,表示运动层跟踪结果与
    模板间的欧氏距离,为视觉层跟踪结果的位置坐标,
    为运动层跟踪结果的位置坐标。

    步骤8-2)视觉层似然函数与运动层似然函数计算如下:


    其中,表示视觉层似然函数,表示运动层似然函数,λo为似然函数控制参数。

    所述步骤9)计算视觉层权值与运动层权值方法如下:


    其中,阈值λw为阈值控制参数,表示负样本与模板间欧氏距
    离均值。

    所述步骤12)在跟踪结果周围提取正负样本方法为:

    正样本和负样本其中,k
    为迭代次数,x(k)为位置坐标,为上一次迭代的运动层跟踪结果,α,β,为样本参数。

    本发明相比现有技术,具有以下有益效果:

    本发明提供的一种基于螺旋视觉-运动模型的视频跟踪方法,从发挥视觉型跟踪
    方法与运动型跟踪方法各自优势的思想出发,建立一种视觉-运动模型,使视觉型跟踪与运
    动型跟踪配合协作、优势互补,使其能够发挥视觉型跟踪方法与运动型跟踪方法各自的优
    势;另一方面,由于视频目标跟踪问题的非确定性特点,提出的类螺旋型跟踪框架设计出一
    个收敛性迭代模型寻求最优跟踪结果以解决该问题;将每个迭代过程分为视觉分类、运动
    估计与风险分析三个学习步骤,并根据各自的表现做出相应修正;将整个视频跟踪设计为
    一个通过周期性迭代将分别来自于视觉层与运动层上的弱分类器组合成一个强分类器的
    过程。

    附图说明

    图1为本发明提出的基于螺旋视觉-运动模型的视频跟踪方法的整体流程图:图1
    (a)为基于螺旋视觉-运动模型的视频跟踪方法的类螺旋框架;图1(b)为第k次迭代过程包
    含的三个步骤;

    图2为本发明在第一组视频上的试验结果:图2(a)为本发明的跟踪结果在第45、
    65、103、210帧图像中的展示;图2(b)为本发明与对比方法的跟踪误差对比曲线图和重叠率
    对比曲线图;

    图3为本发明在第二组视频上的试验结果:图3(a)为本发明的跟踪结果在第49、
    143、243、319帧图像中的展示;图3(b)为本发明与对比方法的跟踪误差对比曲线图和重叠
    率对比曲线图;

    图4为本发明在第三组视频上的试验结果:图4(a)为本发明的跟踪结果在第35、
    44、54、60帧图像中的展示;图4(b)为本发明与对比方法的跟踪误差对比曲线图和重叠率对
    比曲线图;

    图5为本发明在第四组视频上的试验结果:图5(a)为本发明的跟踪结果在第59、
    127、164、249帧图像中的展示;图5(b)为本发明与对比方法的跟踪误差对比曲线图和重叠
    率对比曲线图。

    具体实施方式

    下面结合附图和具体实施例,进一步阐明本发明,应理解这些实例仅用于说明本
    发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种
    等价形式的修改均落于本申请所附权利要求所限定的范围。

    一种基于螺旋视觉-运动模型的视频跟踪方法,如图1所示,其中,图1(a)为基于螺
    旋视觉-运动模型的视频跟踪方法的类螺旋框架,螺旋状实线代表整个跟踪过程,每个螺旋
    环代表一次迭代过程,环越来越小,直到收敛于一点;图1(b)为第k次迭代过程包含的三个
    步骤:1.视觉分类:在第(k-1)次迭代结果(由黑色矩形框标示)周围提取样本(中心由白点
    标示),通过视觉分类步骤得到视觉层跟踪结果(由白色矩形框标示);2.运动估计:通过第
    (k-1)次迭代结果(由黑色矩形框标示)和视觉层跟踪结果(由白色矩形框标示)计算运动层
    跟踪结果(由灰色矩形框标示);3.风险分析:根据第(k-1)次迭代结果(由黑色矩形框标
    示)、视觉层跟踪结果(由白色矩形框标示)和运动层跟踪结果(由灰色矩形框标示)作出风
    险分析,并输出第k次迭代结果,该方法具体包括以下步骤:

    (1)视觉分类:

    输入每帧测试图像,在输入的测试图像的前一帧图像目标位置周围提取候选样本
    图像块,其中,第一帧图像目标位置由手工框定;即在第k次迭代过程中,提取候选样本图像
    块方法为其中x(k)为位置坐标,为上一次迭代的运动层跟踪
    结果,γ为样本参数,为手工框输入的运动层跟踪结果,Xγ表示候选样本图像块。

    利用压缩跟踪原理,将取得的候选样本图像块进行高维向量压缩映射,得到低维
    的压缩特征向量,具体的根据提取到的候选样本图像块,通过类哈尔小波滤波器计算其多
    尺度高维图像特征向量表示n维实数;通过一个随机矩阵表示m×n
    维实数,将h压缩为压缩特征向量

    v=Φh,

    其中,m远小于n(即|m±n|/n≈1),随机矩阵Φ定义为


    Φij为矩阵Φ的第i行第j列的元素,s=n/4。

    采用朴素贝叶斯分类器对得到的压缩特征向量计算分类器响应值,并计算最大响
    应值,对应的候选样本框位置记为视觉层跟踪结果,并更新分类器参数;具体的,将第i个候
    选样本图像块的压缩特征向量表示为v(i)={v1(i),…,vm(i)},假设v(i)中的每个元素vj
    (i)(j=1,…,m)相互独立,并用朴素贝叶斯分类器对其进行建模,则第k次迭代过程中v(i)
    的分类器响应值为:



    其中,p(y(k)=1)=p(y(k)=0),y(k)∈{0,1}表示正负样本标签,表示第k次迭
    代得到的vj(i),和分别表示正负后验概率,假设分类器
    中的条件分布是高斯分布:


    然后,计算分类器最大响应值:

    S(k)(im)=argmaxi S(k)(i),

    并将该最大响应值S(k)(im)对应的候选样本框位置记为视觉层跟踪结果其对
    应的候选样本图像块为第im个候选样本图像块。

    接下来更新分类器参:通过和
    的方式更新正高斯参数
    其中学习参数λ>0,μ1(k)和σ1(k)为积累高斯均值和方差;负高斯参数更新方式同
    正高斯分布。

    最后,通过下式计算第i个候选样本图像块的误差error(k)(i):


    并将第im个候选样本图像块的归一化误差率定义为视觉层误差率


    (2)运动估计:将视觉层跟踪结果利用卡尔曼滤波器计算运动层跟踪结果。

    首先,在卡尔曼滤波器的预测阶段,计算状态和误差协方差:


    其中F为状态矩阵,P为状态估计误差的协方差矩阵,Q为系统噪声协方差,k表示迭
    代次数,T表示矩阵转置符号,表示的先验估计值,表示的过程估计值,
    表示的后验估计值。

    然后,在卡尔曼滤波器的观测阶段,将运动层跟踪结果更新为:


    其中,H为观测矩阵,K为卡尔曼增益,R为观测噪声协方差,I为单位矩阵,观测状态
    z(k)定义为


    S(k)(im)表示分类器最大响应值,表示视觉层跟踪结果。

    最后,计算运动层误差率方法如下:


    (3)风险分析:

    首先,计算视觉层跟踪结果和运动层跟踪结果与模板间的欧氏距离:



    其中,表示视觉层跟踪结果与模板间的欧氏距离,表示运动层跟踪结果与
    模板间的欧氏距离,为视觉层跟踪结果的位置坐标,
    为运动层跟踪结果的位置坐标。

    计算视觉层似然函数与运动层似然函数:


    其中,表示视觉层似然函数,表示运动层似然函数,λo为似然函数控制参数。

    然后,计算视觉层权值与运动层权值如下:


    其中,阈值λw为阈值控制参数,表示负样本与模板间欧氏距
    离均值。

    接下来计算风险值R(k)如下:


    将运动层跟踪结果作为第k次迭代结果,并在跟踪结果周围提取正负样本,为下一
    帧跟踪做准备。

    正样本和负样本其中
    α,β,为样本参数。

    当迭代过程中的风险函数减少值小于阈值时,停止迭代,否则进入第(k+1)次迭代
    过程。

    图2至图5为本发明跟踪试验结果。本发明中的方法与五种跟踪方法进行对比试
    验,其中包括三种视觉型跟踪方法:快速压缩跟踪(简称:FCT;[K.Zhang,L.Zhang,M.-
    H.Yang,Fast compressive tracking,IEEE Transactions on Pattern Analysis and
    Machine Intelligence 36(10)(2014)2002-2015])、基于在线多实例学习的鲁棒目标跟踪
    (简称:MIL;[B.Babenko,M.-H.Yang,S.Belongie,Robust object tracking with online
    multiple instance learning 33(2011)1619-1632])、以及基于在线判别特征提取的实时
    目标跟踪(简称:ODFS;[K.Zhang,L.Zhang,M.-H.Yang,Real-time object tracking via
    online discriminative feature selection,IEEE Transactions on Image Processing
    22(12)(2013)4664-4677]),一种运动型跟踪方法:卡尔曼滤波器跟踪(简称:KF;
    [R.E.Kalman,A new approach to linear filtering and prediction problems,
    Journal of Fluids Engineering 82(1)(1960)35-45]),和一种视觉型与运动型结合的跟
    踪方法:跟踪-学习-检测方法(简称:TLD;[Z.Kalal,K.Mikolajczyk,J.Matas,Tracking-
    learning-detection,IEEE Transactions on Pattern Analysis and Machine
    Intelligence 34(7)(2012)1409-1422])。我们将这五种方法与本发明的方法进行对比,得
    到跟踪结果与真实位置的中心位置像素误差对比,以及跟踪框与真实框重叠率对比,其中
    视频和真实位置均来自网上标准数据库。

    如图2所示,是第一组视频(共227帧)的跟踪结果。第一组视频的困难在于目标山
    地车经历了背景干扰(第45帧和第103帧附近)、旋转(第65帧附近)和位置突变(第210帧附
    近)。当视频到第103帧时,由于背景山与目标相似的外观,FCT方法错跟到背景上,而MIL和
    KF方法基本在整个跟踪过程中都丢失了目标。只有本发明方法和TLD方法在跟踪误差和重
    叠率方面都表现出良好的跟踪效果,而本发明方法效果更好一些。

    如图3所示,是第二组视频(共351帧)的跟踪结果。第二组视频的困难在于目标小
    轿车在夜间行驶过程中经历的视线模糊和光线剧烈变化,这使得目标用肉眼都难于辨认。
    只有本发明的方法能够成功跟踪到目标,而其他方法都无法克服该视频的跟踪难度。

    如图4所示,是第三组视频(共70帧)的跟踪结果。第三组低帧率的视频具有低分辨
    率的画质,且目标鹿头被另一相似外观的鹿头遮挡。只有本发明的方法能够克服以上难度,
    从而成功跟踪到目标。

    如图5所示,是第四组视频(共364帧)的跟踪结果。第四组视频的困难在于目标经
    历了光线变化(第59帧附近)、姿态变化(第127帧和第249帧附近)和遮挡(第164帧附近)。当
    目标在第59帧附近经历光线变化时,MIL、KF和TLD方法错跟到背景上。当目标在第164帧附
    近被吉他遮挡时,MIL和KF方法错把其他物体当作目标。当目标上下摆头时(第127帧和第
    249帧附近),FCT和ODFS方法跟踪准确率下降。只有本发明的方法在跟踪准确率和成功率方
    面都表现出良好的效果。

    以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人
    员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应
    视为本发明的?;し段?。

    关于本文
    本文标题:一种基于螺旋视觉运动模型的视频跟踪方法.pdf
    链接地址://www.4mum.com.cn/p-6079501.html
    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    [email protected] 2017-2018 www.4mum.com.cn网站版权所有
    经营许可证编号:粤ICP备17046363号-1 
     


    收起
    展开
  • 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
  • j江西时时走势图 重庆吋时彩五星个位走势图 广西快3免费全天计划软件 旺彩电脑版 双面盘时时彩平台 大乐透|100期的走势图 七乐彩中奖规则及奖金 时时彩开奖结果记录表 彩票双色球网上投注 双色球投注技巧18种 重庆时时单双技巧 3d组六组三同时打不赔的打法 七星彩开奖视频播放今晚 时时彩全网计划 分分彩定胆 幸运pk10计划怎么算