• 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
    • / 10
    • 下载费用:30 金币  

    大淘宝重庆时时彩的: 一种快速自适应支持权值双目视觉立体匹配方法.pdf

    关 键 词:
    一种 快速 自适应 支持 双目 视觉 立体 匹配 方法
      专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    摘要
    申请专利号:

    CN201310268903.3

    申请日:

    2013.06.30

    公开号:

    CN103325120A

    公开日:

    2013.09.25

    当前法律状态:

    撤回

    有效性:

    无权

    法律详情: 发明专利申请公布后的视为撤回IPC(主分类):G06T 7/00申请公布日:20130925|||实质审查的生效IPC(主分类):G06T 7/00申请日:20130630|||公开
    IPC分类号: G06T7/00 主分类号: G06T7/00
    申请人: 西南交通大学
    发明人: 张葛祥; 王涛; 关桃
    地址: 610031 四川省成都市二环路北一段111号
    优先权:
    专利代理机构: 成都宏顺专利代理事务所(普通合伙) 51227 代理人: 李顺德;王睿
    PDF完整版下载: PDF下载
    法律状态
    申请(专利)号:

    CN201310268903.3

    授权公告号:

    ||||||

    法律状态公告日:

    2016.09.28|||2013.10.30|||2013.09.25

    法律状态类型:

    发明专利申请公布后的视为撤回|||实质审查的生效|||公开

    摘要

    本发明公开了一种快速自适应支持权值双目视觉立体匹配方法,包括以下步骤:读取已有待匹配双目图像对;计算匹配代价;加权聚合匹配代价;计算初始视差;对初始视差进行校正,得到最终视差矩阵;生成视差图,输出结果。本发明可用于立体显示技术领域,改善立体匹配效果。

    权利要求书

    权利要求书
    1.   一种快速自适应支持权值双目视觉立体匹配方法,其特征在于,包括以下步骤:
    S1、读取已有待匹配双目图像对Il和Ir,获得图像的大小和颜色通道信息,其中,Il表示左视图,为待匹配图像,Ir表示右视图,为匹配图像;
    S2、计算Il,Ir中像素点间的匹配代价,包括:
    S21、对待匹配图像Il,确定方形支持窗N,计算支持窗内中心像素和支持像素的灰度差diff(p,q),其中,diff(p,q)=I(p)?I(q),I(p)和I(q)分别为中心像素点p和支持像素点q的灰度值;
    S22、根据S21所得灰度差diff(p,q),将方形支持窗N内每个像素定义到5个等级中去,五个等级如下:
    其中,s和t是根据经验设置的阈值,满足尽可能减小图像噪声的影响这一原则;
    S23、统计得出初始相似性测度值Sd:
    令fuz表示经秩变换后得到的数值矩阵,矩阵大小和方形支持窗N大小相同,<mrow><MI>fuz</MI><MO>=</MO><MFENCED close="" open="{"><MTABLE><MTR><MTD><MO>-</MO><MN>2</MN></MTD><MTD><MI>diff</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW><MO>&lt;</MO><MO>-</MO><MI>s</MI></MTD></MTR><MTR><MTD><MO>-</MO><MN>1</MN></MTD><MTD><MO>-</MO><MI>s</MI><MO>≤</MO><MI>diff</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW><MO>&lt;</MO><MO>-</MO><MI>t</MI></MTD></MTR><MTR><MTD><MN>0</MN></MTD><MTD><MO>-</MO><MI>t</MI><MO>≤</MO><MI>diff</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW><MO>≤</MO><MI>t</MI></MTD></MTR><MTR><MTD><MN>1</MN></MTD><MTD><MI>t</MI><MO>&lt;</MO><MI>diff</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW><MO>≤</MO><MI>s</MI></MTD></MTR><MTR><MTD><MN>2</MN></MTD><MTD><MI>s</MI><MO>&lt;</MO><MI>diff</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW></MTD></MTR></MTABLE></MFENCED><MO>,</MO></MROW>]]&gt;</MATH></MATHS>分别对Il中待匹配像素点和Ir中候选匹配像素点进行秩变换,可以得到两个秩变换矩阵fuzl和fuzr,统计秩变换矩阵fuzl和秩变换矩阵fuzr在方形支持窗内对应位置具有相同等级的个数,得到初始相似性测度值Sd,其中,<MATHS id=cmaths0002 num="0002"><MATH><![CDATA[<mrow><MSUB><MI>S</MI><MI>d</MI></MSUB><MO>=</MO><MSUB><MI>Σ</MI><MROW><MI>q</MI><MO>&amp;Element;</MO><MI>N</MI></MROW></MSUB><MI>m</MI><MO>,</MO></MROW>]]&gt;</MATH></MATHS><MATHS id=cmaths0003 num="0003"><MATH><![CDATA[<mrow><MI>m</MI><MO>=</MO><MFENCED close="" open="{"><MTABLE><MTR><MTD><MN>1</MN></MTD><MTD><MROW><MI>if</MI><MSUB><MI>fuz</MI><MI>l</MI></MSUB><MO>=</MO><MSUB><MI>fuz</MI><MI>r</MI></MSUB></MROW></MTD></MTR><MTR><MTD><MN>0</MN></MTD><MTD><MI>otherwise</MI></MTD></MTR></MTABLE></MFENCED><MO>,</MO></MROW>]]&gt;</MATH></MATHS>m表示秩变换矩阵fuzl和fuzr在对应位置是否具有相同等级,若相同,则m=1,否则m=0;<BR>S24、统计待匹配图像中待匹配像素点为中心的n×n方形统计窗M内每个视差值d∈D对应的初始相似性测度值,根据ERT相似性度量函数得到待匹配像素和匹配图像中候选匹配像素点间的匹配代价其中,d表示待匹配像素和候选匹配像素在水平方向的视差,D={dmin,...dmax},<MATHS id=cmaths0004 num="0004"><MATH><![CDATA[<mrow><MSUB><MI>C</MI><MI>ERT</MI></MSUB><MROW><MO>(</MO><MI>q</MI><MO>,</MO><MSUB><MOVER><MI>q</MI><MO>&amp;OverBar;</MO></MOVER><MI>d</MI></MSUB><MO>)</MO></MROW><MO>=</MO><MUNDER><MI>Σ</MI><MROW><MI>n</MI><MO>×</MO><MI>n</MI></MROW></MUNDER><MSUB><MI>S</MI><MI>d</MI></MSUB><MROW><MO>(</MO><MI>q</MI><MO>)</MO></MROW><MO>;</MO></MROW>]]&gt;</MATH></MATHS><BR>S3、加权聚合匹配代价,包括:<BR>S31、计算支持权值w(p,q):利用颜色相似性和几何接近性,计算匹配支持窗内支持像素q对待匹配像素p的支持权值w(p,q),w(p,q)=fs(Δcpq)·fp(Δgpq),其中,fs(Δcpq)表示由颜色相似性确定的聚类强度,fp(Δgpq)表示由几何接近性确定的聚类强度,Δcpq表示两个像素颜色cp和cq在RGB颜色空间的欧几里德距离,cp=[Rp,Gp,Bp],cq=[Rq,Gq,Bq],<MATHS id=cmaths0005 num="0005"><MATH><![CDATA[<mrow><MSUB><MI>Δc</MI><MI>pq</MI></MSUB><MO>=</MO><MSQRT><MSUP><MROW><MO>(</MO><MSUB><MI>R</MI><MI>p</MI></MSUB><MO>-</MO><MSUB><MI>R</MI><MI>q</MI></MSUB><MO>)</MO></MROW><MN>2</MN></MSUP><MO>+</MO><MSUP><MROW><MO>(</MO><MSUB><MI>G</MI><MI>p</MI></MSUB><MO>-</MO><MSUB><MI>G</MI><MI>q</MI></MSUB><MO>)</MO></MROW><MN>2</MN></MSUP><MO>+</MO><MSUP><MROW><MO>(</MO><MSUB><MI>B</MI><MI>p</MI></MSUB><MO>-</MO><MSUB><MI>B</MI><MI>q</MI></MSUB><MO>)</MO></MROW><MN>2</MN></MSUP></MSQRT><MO>,</MO></MROW>]]&gt;</MATH></MATHS>Δgpq表示中心像素和支持像素的在空间位置上的欧几里德距离,设像素p在图像域的坐标为p(x,y),像素q在图像域的坐标为q(x',y'),则γc,γp是用户指定参数,分别用来调节颜色相似性和几何接近性对支持权值大小的影响;<BR>S32、根据S24所得匹配代价和S31所得支持权值w(p,q),加权聚合匹配代价,得到:<MATHS id=cmaths0006 num="0006"><MATH><![CDATA[<mrow><MI>E</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MSUB><MOVER><MI>p</MI><MTEXT>-</MTEXT></MOVER><MI>d</MI></MSUB><MO>)</MO></MROW><MO>=</MO><MFRAC><MROW><MSUB><MI>Σ</MI><MROW><MI>q</MI><MO>&amp;Element;</MO><MSUB><MI>N</MI><MI>P</MI></MSUB><MO>,</MO><MROW><MOVER><MI>q</MI><MO>&amp;OverBar;</MO></MOVER><MO>&amp;Element;</MO><MSUB><MI>N</MI><MSUB><MOVER><MI>p</MI><MO>&amp;OverBar;</MO></MOVER><MI>d</MI></MSUB></MSUB></MROW></MROW></MSUB><MI>w</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW><MSUB><MI>c</MI><MI>ERT</MI></MSUB><MROW><MO>(</MO><MI>q</MI><MO>,</MO><MSUB><MOVER><MI>q</MI><MO>&amp;OverBar;</MO></MOVER><MI>d</MI></MSUB><MO>)</MO></MROW></MROW><MROW><MSUB><MI>Σ</MI><MROW><MI>q</MI><MO>&amp;Element;</MO><MSUB><MI>N</MI><MI>P</MI></MSUB><MO>,</MO><MOVER><MI>q</MI><MO>&amp;OverBar;</MO></MOVER><MO>&amp;Element;</MO><MSUB><MI>N</MI><MSUB><MOVER><MI>p</MI><MO>&amp;OverBar;</MO></MOVER><MI>d</MI></MSUB></MSUB></MROW></MSUB><MI>w</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW></MROW></MFRAC><MO>,</MO></MROW>]]&gt;</MATH></MATHS>其中,分别表示当视差为d时待匹配图像像素p、q在匹配图像中对应的匹配像素点,Np表示参考图像中的支持窗口大小,表示目标图像中的对应支持窗口大小,且<BR>S4、计算初始视差:对S3中所得加权聚合匹配代价采用局部最优化方法WTA(Winner?Take?All,胜者为王),得出最大加权聚合结果,最大加权聚合结果对应的视差值为该像素的初始视差dp,每个像素的初始视差结果保存到初始视差矩阵,初始视差矩阵为:<MATHS id=cmaths0007 num="0007"><MATH><![CDATA[<mrow><MSUB><MI>d</MI><MI>p</MI></MSUB><MO>=</MO><MI>arg</MI><MUNDER><MI>max</MI><MROW><MI>d</MI><MO>&amp;Element;</MO><MI>D</MI></MROW></MUNDER><MI>E</MI><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MSUB><MOVER><MI>p</MI><MO>&amp;OverBar;</MO></MOVER><MI>d</MI></MSUB><MO>)</MO></MROW><MO>;</MO></MROW>]]&gt;</MATH></MATHS><BR>S5、对S4所得初始视差进行校正,得到最终视差矩阵,包括:<BR>S51、确定以待校正像素p为中心的校正窗口Nc,根据颜色相似性和几何接近性为校正窗内每一个像素自适应地分配一个合适的支持权值wc,<BR>S52、观察校正窗内所有像素的初始视差分布,统计视差d∈D在校正窗内出现的次数,并聚合各个视差值d在校正窗内出现的次数及对应的权值,最大聚合结果对应的视差,则为待校正像素的最终视差dp_final,并将结果保存到最终视差矩阵,其中<MATHS id=cmaths0008 num="0008"><MATH><![CDATA[<mrow><MSUB><MI>d</MI><MROW><MI>p</MI><MO>_</MO><MI>final</MI></MROW></MSUB><MO>=</MO><MI>arg</MI><MROW><MUNDER><MI>max</MI><MROW><MI>d</MI><MO>&amp;Element;</MO><MI>D</MI></MROW></MUNDER><MO>{</MO><MSUB><MI>Σ</MI><MROW><MI>q</MI><MO>&amp;Element;</MO><MSUB><MI>N</MI><MI>c</MI></MSUB></MROW></MSUB><MSUB><MI>w</MI><MI>c</MI></MSUB><MROW><MO>(</MO><MI>p</MI><MO>,</MO><MI>q</MI><MO>)</MO></MROW><MO>×</MO><MI>k</MI><MO>}</MO></MROW><MO>,</MO></MROW>]]&gt;</MATH></MATHS><MATHS id=cmaths0009 num="0009"><MATH><![CDATA[<mrow><MI>k</MI><MO>=</MO><MFENCED close="" open="{"><MTABLE><MTR><MTD><MN>1</MN></MTD><MTD><MI>if</MI><MSUB><MI>d</MI><MI>p</MI></MSUB><MROW><MO>(</MO><MI>q</MI><MO>)</MO></MROW><MO>=</MO><MI>d</MI></MTD></MTR><MTR><MTD><MN>0</MN></MTD><MTD><MI>otherwise</MI></MTD></MTR></MTABLE></MFENCED><MO>,</MO></MROW>]]&gt;</MATH></MATHS>k表示校正窗内像素的初始视差是否等于待统计视差d,若相等,则k=1,否则k=0;<BR>S6、生成视差图,输出结果:将S5所得最终视差值dp_final映射到相应的灰度空间[0,255],映射比例为t,得到表示视差信息的灰度图像。<BR><BR>2.&nbsp;&nbsp; 根据权利要求1所述的一种快速自适应支持权值双目视觉立体匹配方法,其特征在于:S22中所述s&lt;t。<BR><BR>3.&nbsp;&nbsp; 根据权利要求1所述的一种快速自适应支持权值双目视觉立体匹配方法,其特征在于:S51所述校正窗内像素应尽量来自相同深度,自适应支持权值方形校正窗满足这一条件。<BR></p></div> </div> </div> <div class="zlzy"> <div class="zltitle">说明书</div> <div class="gdyy"> <div class="gdyy_show"><p>说明书一种快速自适应支持权值双目视觉立体匹配方法 <BR>技术领域 <BR>本发明涉及图像显示技术领域,尤其涉及一种快速自适应支持权值双目视觉立体匹配方法。 <BR>背景技术 <BR>视觉是人类认识世界、感知世界的一个重要手段,人类对外界的认知中约75%的信息是通过视觉系统获得。从传统的黑白照片、黑白电视机到现在的高分辨率彩色数字相片、高清数字电视,人类对视觉体验要求越来越高。虽然传统的二维视频已经能够提供高清晰度的二维平面信息,但人类生活在三维世界中,二维平面视频始终无法给人一种“身临其境”的视觉感受。双目立体视觉打破传统二维视频“单眼看世界”的局限性,利用计算机模拟人类的视觉系统,通过场景中的两幅或者多幅二维视图得到场景的三维信息,人类通过立体显示视频便可以感受到真实的三维世界。双目立体视觉是计算机视觉的一个重要研究领域,包括四个步骤:图像获取、摄像机标定、立体匹配和三维重建,其中立体匹配是关键技术,立体匹配的精度直接影响到三维重建的效果。 <BR>虽然目前已有大量的立体匹配方法,但在实际应用中仍然存在许多问题。立体匹配按照优化方法的不同,可以分为两类:全局立体匹配方法和局部立体匹配方。全局立体匹配方法匹配精度高,但计算结构复杂,不易于硬件实现,局部立体匹配方法结构简单,易于硬件实现,但匹配精度也相对较低。随着Yoon提出自适应支持权值方法以来,局部方法的立体匹配性能大大提高,甚至超过了一些全局方法,但Yoon自适应支持权值方法仍然存在一个重要问题:计算速度慢,计算时间比其它局部算法长。因此,发明一种计算速度快、匹配性能高的快速自适应支持权值方法具有十分重要的意义,有利于将立体匹配技术应用到实际问题中。 <BR>发明内容 <BR>本发明所要解决的技术问题在于克服Yoon自适应支持权值方法的不足,提出一种基于扩展秩变换的快速自适应支持权值方法,以双目立体图像对的左视图为待匹配图像,以右视图为匹配图像,为左视图中的每一个待匹配像素点在右视图中找到对应的匹配点,即求得左视图的视差图。 <BR>本发明为解决其技术问题,所采用的技术包含以下步骤: <BR>S1、读取已有待匹配双目图像对Il和Ir,获得图像的大小和颜色通道信息,其中,Il表示左视图,为待匹配图像,Ir表示右视图,为匹配图像; <BR>S2、计算Il,Ir中像素点间的匹配代价,包括: <BR>S21、对待匹配图像Il,确定方形支持窗N,计算支持窗内中心像素和支持像素的灰度差diff(p,q),其中,diff(p,q)=I(p)?I(q),I(p)和I(q)分别为中心像素点p和支持像素点q的灰度值; <BR>S22、根据S21所得灰度差diff(p,q),将方形支持窗N内每个像素定义到5个等级中去,五个等级如下: <BR>其中,s和t是根据经验设置的阈值,满足尽可能减小图像噪声的影响这一原则; <BR>S23、统计得出初始相似性测度值Sd: <BR>令fuz表示经秩变换后得到的数值矩阵,矩阵大小和方形支持窗N大小相同,<MATHS num="0001"><MATH><![CDATA[ <mrow> <MI>fuz</MI> <MO>=</MO> <MFENCED close="" open="{"><MTABLE><MTR><MTD><MO>-</MO> <MN>2</MN> </MTD><MTD><MI>diff</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>&lt;</MO> <MO>-</MO> <MI>s</MI> </MTD></MTR><MTR><MTD><MO>-</MO> <MN>1</MN> </MTD><MTD><MO>-</MO> <MI>s</MI> <MO>≤</MO> <MI>diff</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>&lt;</MO> <MO>-</MO> <MI>t</MI> </MTD></MTR><MTR><MTD><MN>0</MN> </MTD><MTD><MO>-</MO> <MI>t</MI> <MO>≤</MO> <MI>diff</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>≤</MO> <MI>t</MI> </MTD></MTR><MTR><MTD><MN>1</MN> </MTD><MTD><MI>t</MI> <MO>&lt;</MO> <MI>diff</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>≤</MO> <MI>s</MI> </MTD></MTR><MTR><MTD><MN>2</MN> </MTD><MTD><MI>s</MI> <MO>&lt;</MO> <MI>diff</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW></MTD></MTR></MTABLE></MFENCED><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>分别对Il中待匹配像素点和Ir中候选匹配像素点进行秩变换,可以得到两个秩变换矩阵fuzl和fuzr,统计秩变换矩阵fuzl和秩变换矩阵fuzr在方形支持窗内对应位置具有相同等级的个数,得到初始相似性测度值Sd,其中,<MATHS num="0002"><MATH><![CDATA[ <mrow> <MSUB><MI>S</MI> <MI>d</MI> </MSUB><MO>=</MO> <MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MI>N</MI> </MROW></MSUB><MI>m</MI> <MO>,</MO> </MROW>]]&gt;</MATH></MATHS><MATHS num="0003"><MATH><![CDATA[ <mrow> <MI>m</MI> <MO>=</MO> <MFENCED close="" open="{"><MTABLE><MTR><MTD><MN>1</MN> </MTD><MTD><MI>if</MI> <MO></MO><MSUB><MI>fuz</MI> <MN>1</MN> </MSUB><MO>=</MO> <MSUB><MI>fuz</MI> <MI>r</MI> </MSUB></MTD></MTR><MTR><MTD><MN>0</MN> </MTD><MTD><MI>otherwise</MI> </MTD></MTR></MTABLE></MFENCED><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>m表示秩变换矩阵fuzl和fuzr在对应位置是否具有相同等级,若相同,则m=1,否则m=0; <BR>S24、统计待匹配图像中待匹配像素点为中心的n×n方形统计窗M内每个视差值d∈D对应的初始相似性测度值,根据ERT相似性度量函数得到待匹配像素和匹配图像中候选匹配像素点间的匹配代价其中,d表示待匹配像素和候选匹配像素在水平方向的视差,D={dmin,...dmax},<MATHS num="0004"><MATH><![CDATA[ <mrow> <MSUB><MI>C</MI> <MI>ERT</MI> </MSUB><MROW><MO>(</MO> <MI>q</MI> <MO>,</MO> <MSUB><MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW><MO>=</MO> <MUNDER><MI>Σ</MI> <MROW><MI>n</MI> <MO>×</MO> <MI>n</MI> </MROW></MUNDER><MSUB><MI>S</MI> <MI>d</MI> </MSUB><MROW><MO>(</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>;</MO> </MROW>]]&gt;</MATH></MATHS> <BR>S3、加权聚合匹配代价,包括: <BR>S31、计算支持权值w(p,q):利用颜色相似性和几何接近性,计算匹配支持窗内支持像素q对待匹配像素p的支持权值w(p,q),w(p,q)=fs(Δcpq)·fp(Δgpq),其中,fs(Δcpq)表示由颜色相似性确定的聚类强度,fp(Δgpq)表示由几何接近性确定的聚类强度,Δcpq表示两个像素颜色cp和cq在RGB颜色空间的欧几里德距离,cp=[Rp,Gp,Bp],cq=[Rq,Gq,Bq],<MATHS num="0005"><MATH><![CDATA[ <mrow> <MSUB><MI>Δc</MI> <MI>pq</MI> </MSUB><MO>=</MO> <MSQRT><MSUP><MROW><MO>(</MO> <MSUB><MI>R</MI> <MI>p</MI> </MSUB><MO>-</MO> <MSUB><MI>R</MI> <MI>q</MI> </MSUB><MO>)</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MSUP><MROW><MO>(</MO> <MSUB><MI>G</MI> <MI>p</MI> </MSUB><MO>-</MO> <MSUB><MI>G</MI> <MI>q</MI> </MSUB><MO>)</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MSUP><MROW><MO>(</MO> <MSUB><MI>B</MI> <MI>p</MI> </MSUB><MO>-</MO> <MSUB><MI>B</MI> <MI>q</MI> </MSUB><MO>)</MO> </MROW><MN>2</MN> </MSUP></MSQRT><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>Δgpq表示中心像素和支持像素的在空间位置上的欧几里德距离,设像素p在图像域的坐标为p(x,y),像素q在图像域的坐标为q(x',y'),则γc,γp是用户指定参数,分别用来调节颜色相似性和几何接近性对支持权值大小的影响; <BR>S32、根据S24所得匹配代价和S31所得支持权值w(p,q),加权聚合匹配代价,得到:<MATHS num="0006"><MATH><![CDATA[ <mrow> <MI>E</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW><MO>=</MO> <MFRAC><MROW><MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MI>P</MI> </MSUB><MO>,</MO> <MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB></MSUB></MROW></MSUB><MI>w</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MSUB><MI>c</MI> <MI>ERT</MI> </MSUB><MROW><MO>(</MO> <MI>q</MI> <MO>,</MO> <MSUB><MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW></MROW><MROW><MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MI>P</MI> </MSUB><MO>,</MO> <MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB></MSUB></MROW></MSUB><MI>w</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW></MROW></MFRAC><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>其中,分别表示当视差为d时待匹配图像像素p、q在匹配图像中对应的匹配像素点,Np表示参考图像中的支持窗口大小,表示目标图像中的对应支持窗口大小,且 <BR>S4、计算初始视差:对S3中所得加权聚合匹配代价采用局部最优化方法WTA(Winner?Take?All,胜者为王),得出最大加权聚合结果,最大加权聚合结果对应的视差值为该像素的初始视差dp,每个像素的初始视差结果保存到初始视差矩阵,初始视差矩阵为:<MATHS num="0007"><MATH><![CDATA[ <mrow> <MSUB><MI>d</MI> <MI>p</MI> </MSUB><MO>=</MO> <MI>arg</MI> <MUNDER><MI>max</MI> <MROW><MI>d</MI> <MO>&amp;Element;</MO> <MI>D</MI> </MROW></MUNDER><MI>E</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW><MO>;</MO> </MROW>]]&gt;</MATH></MATHS> <BR>S5、对S4所得初始视差进行校正,得到最终视差矩阵,包括: <BR>S51、确定以待校正像素p为中心的校正窗口Nc,根据颜色相似性和几何接近性为校正窗内每一个像素自适应地分配一个合适的支持权值wc, <BR>S52、观察校正窗内所有像素的初始视差分布,统计视差d∈D在校正窗内出现的次数,并聚合各个视差值d在校正窗内出现的次数及对应的权值,最大聚合结果对应的视差,则为待校正像素的最终视差dp_final,并将结果保存到最终视差矩阵,其中<MATHS num="0008"><MATH><![CDATA[ <mrow> <MSUB><MI>d</MI> <MROW><MI>p</MI> <MO>_</MO> <MI>final</MI> </MROW></MSUB><MO>=</MO> <MI>arg</MI> <MROW><MUNDER><MI>max</MI> <MROW><MI>d</MI> <MO>&amp;Element;</MO> <MI>D</MI> </MROW></MUNDER><MO>{</MO> <MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MI>c</MI> </MSUB></MROW></MSUB><MSUB><MI>w</MI> <MI>c</MI> </MSUB><MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>×</MO> <MI>k</MI> <MO>}</MO> <MO>,</MO> </MROW></MROW>]]&gt;</MATH></MATHS><MATHS num="0009"><MATH><![CDATA[ <mrow> <MI>k</MI> <MO>=</MO> <MFENCED close="" open="{"><MTABLE><MTR><MTD><MN>1</MN> </MTD><MTD><MI>if</MI> <MSUB><MI>d</MI> <MI>p</MI> </MSUB><MROW><MO>(</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>=</MO> <MI>d</MI> </MTD></MTR><MTR><MTD><MN>0</MN> </MTD><MTD><MI>otherwise</MI> </MTD></MTR></MTABLE></MFENCED><MO>,</MO> </MROW>]]&gt;</MATH></MATHS>k表示校正窗内像素的初始视差是否等于待统计视差d,若相等,则k=1,否则k=0; <BR>S6、生成视差图,输出结果:将S5所得最终视差值dp_final映射到相应的灰度空间[0,255],映射比例为t,得到表示视差信息的灰度图像。 <BR>进一步地,S22中所述s&lt;t。 <BR>进一步地,S51所述校正窗内像素应尽量来自相同深度,自适应支持权值方形校正窗满足这一条件。 <BR>本发明通过一种基于扩展秩变换的快速自适应支持权值方法,以双目立体图像对的左视图为待匹配图像,以右视图为匹配图像,为左视图中的每一个待匹配像素点在右视图中找到对应的匹配点,即求得左视图的视差图,相对于其他计算方法,计算速度快,匹配性能高,更有利于将立体匹配技术应用到实际问题中。 <BR>附图说明 <BR>图1是本发明所述的方法步骤示意图。 <BR>具体实施方式 <BR>下面结合具体实施方式对本发明作进一步详细描述。 <BR>一种快速自适应支持权值双目视觉立体匹配方法,其目的是快速求得待匹配图像对的高精度稠密视差图。本实施例以Middlebury测试平台提供的Teddy标准测试图像对为实验对象,其中以左视图为待匹配图像,以右视图为匹配图像,为左视图中的每一个待匹配像素点在右视图中找到对应的匹配点。为了求解该问题,根据流程图1所示,需采取如下步骤: <BR>S1:读取待匹配双目图像对。输入Middlebury测试平台提供的Teddy标准测试图像对,其中左视图Il,右视图Ir。读取待匹配图像对包括图像大小和颜色通道等信息。 <BR>S2:使用扩展秩变换函数,计算Il和Ir像素点间的匹配代价。 <BR>首先确定待匹配像素p,确定方形支持窗口大小N=25,计算方形支持窗内中心像素p和支持像素q的灰度差diff(p,q)=I(p)?I(q),其中I(p),I(q)分别表示像素p,q的灰度值。 <BR>然后根据diff(p,q)值的大小,将支持窗内每个像素定义到5个等级。 <BR> <BR>对左视图和右视图进行秩变换,得到两个秩变换矩阵fuzl(p)、统计左右视图中方形支持窗口内秩变换矩阵fuzl(p)和在对应位置具有相同等级的个数,得到待匹配像素点p和候选匹配像素点间的初始相似性测度值Sd。 <BR><MATHS num="0010"><MATH><![CDATA[ <mrow><MSUB><MI>S</MI> <MI>d</MI> </MSUB><MROW><MO>(</MO> <MI>q</MI> <MO>,</MO> <MSUB><MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW><MO>=</MO> <MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MI>N</MI> </MROW></MSUB><MI>m</MI> </MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0011"><MATH><![CDATA[ <mrow><MI>m</MI> <MO>=</MO> <MFENCED close="" open="{"><MTABLE><MTR><MTD><MN>1</MN> </MTD><MTD><MI>if</MI> <MROW><MO>(</MO> <MSUB><MI>fuz</MI> <MI>l</MI> </MSUB><MROW><MO>(</MO> <MI>p</MI> <MO>)</MO> </MROW><MO>=</MO> <MSUB><MI>fuz</MI> <MI>r</MI> </MSUB><MROW><MO>(</MO> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW><MO>)</MO> </MROW></MTD></MTR><MTR><MTD><MN>0</MN> </MTD><MTD><MI>otherwise</MI> </MTD></MTR></MTABLE></MFENCED></MROW>]]&gt;</MATH></MATHS> <BR>最后统计以待匹配像素p为窗口中心的3×3方形统计窗口内每个视差值d∈D对应的初始相似性测度值,得到待匹配像素和候选匹配像素点间的匹配代价其中,初始化视差集D={0,1,2,3,…56,57,58,59}。 <BR>S3:权聚合匹配代价: <BR>首先,利用颜色相似性和几何接近性,计算匹配支持窗内支持像素q对待匹配像素p的支持权值w(p,q): <BR><MATHS num="0012"><MATH><![CDATA[ <mrow><MI>w</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>=</MO> <MSUB><MI>f</MI> <MI>s</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>Δc</MI> <MI>pq</MI> </MSUB><MO>)</MO> </MROW><MO>&amp;CenterDot;</MO> <MSUB><MI>f</MI> <MI>p</MI> </MSUB><MROW><MO>(</MO> <MSUB><MI>Δg</MI> <MI>pq</MI> </MSUB><MO>)</MO> </MROW><MO>=</MO> <MI>exp</MI> <MROW><MO>(</MO> <MO>-</MO> <MROW><MO>(</MO> <MFRAC><MSUB><MI>Δc</MI> <MI>pq</MI> </MSUB><MN>19</MN> </MFRAC><MO>+</MO> <MFRAC><MSUB><MI>Δg</MI> <MI>pq</MI> </MSUB><MN>12.5</MN> </MFRAC><MO>)</MO> </MROW><MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0013"><MATH><![CDATA[ <mrow><MSUB><MI>Δc</MI> <MI>pq</MI> </MSUB><MO>=</MO> <MSQRT><MSUP><MROW><MO>(</MO> <MSUB><MI>R</MI> <MI>p</MI> </MSUB><MO>-</MO> <MSUB><MI>R</MI> <MI>q</MI> </MSUB><MO>)</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MSUP><MROW><MO>(</MO> <MSUB><MI>G</MI> <MI>p</MI> </MSUB><MO>-</MO> <MSUB><MI>G</MI> <MI>q</MI> </MSUB><MO>)</MO> </MROW><MN>2</MN> </MSUP><MO>+</MO> <MSUP><MROW><MO>(</MO> <MSUB><MI>B</MI> <MI>p</MI> </MSUB><MO>-</MO> <MSUB><MI>B</MI> <MI>q</MI> </MSUB><MO>)</MO> </MROW><MN>2</MN> </MSUP></MSQRT></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0014"><MATH><![CDATA[ <mrow><MSUB><MI>Δg</MI> <MI>pq</MI> </MSUB><MO>=</MO> <MSQRT><MSUP><MROW><MO>(</MO> <MI>p</MI> <MROW><MO>(</MO> <MI>x</MI> <MO>,</MO> <MI>y</MI> <MO>)</MO> </MROW><MO>-</MO> <MI>q</MI> <MROW><MO>(</MO> <MSUP><MI>x</MI> <MO>′</MO> </MSUP><MO>,</MO> <MSUP><MI>y</MI> <MO>′</MO> </MSUP><MO>)</MO> </MROW><MO>)</MO> </MROW><MN>2</MN> </MSUP></MSQRT></MROW>]]&gt;</MATH></MATHS> <BR>然后,使用方形支持权值窗口,聚合匹配代价和相应的支持权值,支持窗口的大小为<MATHS num="0015"><MATH><![CDATA[ <mrow> <MI>N</MI> <MO>=</MO> <MSUB><MI>N</MI> <MI>p</MI> </MSUB><MO>=</MO> <MSUB><MI>N</MI> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB></MSUB><MO>=</MO> <MN>25</MN> <MO>.</MO> </MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0016"><MATH><![CDATA[ <mrow><MI>E</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW><MO>=</MO> <MFRAC><MROW><MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MI>P</MI> </MSUB><MO>,</MO> <MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB></MSUB></MROW></MSUB><MI>w</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MSUB><MI>c</MI> <MI>ERT</MI> </MSUB><MROW><MO>(</MO> <MI>q</MI> <MO>,</MO> <MSUB><MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW></MROW><MROW><MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MI>P</MI> </MSUB><MO>,</MO> <MOVER><MI>q</MI> <MO>&amp;OverBar;</MO> </MOVER><MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB></MSUB></MROW></MSUB><MI>w</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW></MROW></MFRAC></MROW>]]&gt;</MATH></MATHS> <BR>S4:从聚合结果计算初始视差。采用局部最优化方法WTA,具有最大加权结果对应的视差值则为该像素的初始视差dp,并将结果保存到初始视差矩阵。 <BR><MATHS num="0017"><MATH><![CDATA[ <mrow><MSUB><MI>d</MI> <MI>p</MI> </MSUB><MO>=</MO> <MI>arg</MI> <MUNDER><MI>max</MI> <MROW><MI>d</MI> <MO>&amp;Element;</MO> <MI>D</MI> </MROW></MUNDER><MI>E</MI> <MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MSUB><MOVER><MI>p</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>d</MI> </MSUB><MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>S5:对初始视差进行校正 <BR>首先,确定以待校正像素p为中心的校正窗Nc=21,并根据颜色相似性和几何接近性,计算校正窗内校正像素p对待校正像素q的支持权值wc(p,q): <BR><MATHS num="0018"><MATH><![CDATA[ <mrow><MSUB><MI>w</MI> <MI>c</MI> </MSUB><MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>=</MO> <MI>exp</MI> <MROW><MO>(</MO> <MO>-</MO> <MROW><MO>(</MO> <MFRAC><MSUB><MI>Δc</MI> <MI>pq</MI> </MSUB><MN>19</MN> </MFRAC><MO>+</MO> <MFRAC><MSUB><MI>Δg</MI> <MI>pq</MI> </MSUB><MN>10.5</MN> </MFRAC><MO>)</MO> </MROW><MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>然后观察校正窗内所有像素的初始视差分布,统计视差d∈D在校正窗内出现的次数,并聚合各个视差值d在校准窗内出现的次数及对应的权值,最大聚合结果对应的视差,则为待校正像素的最终视差dp_final,并将最终视差结果保存到最终视差矩阵。 <BR><MATHS num="0019"><MATH><![CDATA[ <mrow><MSUB><MI>d</MI> <MROW><MI>p</MI> <MO>_</MO> <MI>final</MI> </MROW></MSUB><MO>=</MO> <MI>arg</MI> <MROW><MUNDER><MI>max</MI> <MROW><MI>d</MI> <MO>&amp;Element;</MO> <MI>D</MI> </MROW></MUNDER><MO>{</MO> <MSUB><MI>Σ</MI> <MROW><MI>q</MI> <MO>&amp;Element;</MO> <MSUB><MI>N</MI> <MI>c</MI> </MSUB></MROW></MSUB><MSUB><MI>w</MI> <MI>c</MI> </MSUB><MROW><MO>(</MO> <MI>p</MI> <MO>,</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>×</MO> <MI>k</MI> <MO>}</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0020"><MATH><![CDATA[ <mrow><MI>k</MI> <MO>=</MO> <MFENCED close="" open="{"><MTABLE><MTR><MTD><MN>1</MN> </MTD><MTD><MI>if</MI> <MSUB><MI>d</MI> <MI>p</MI> </MSUB><MROW><MO>(</MO> <MI>q</MI> <MO>)</MO> </MROW><MO>=</MO> <MI>d</MI> </MTD></MTR><MTR><MTD><MN>0</MN> </MTD><MTD><MI>otherwise</MI> </MTD></MTR></MTABLE></MFENCED></MROW>]]&gt;</MATH></MATHS> <BR>S6:生成视差图并输出结果。将最终视差矩阵中的视差值映射到相应的灰度空间[0,255],映射比例t=4,视差集D中视差值的映射结果如下: <BR>&nbsp;0×4=0&nbsp;&nbsp;&nbsp;&nbsp;1×4=4&nbsp;&nbsp;&nbsp;...&nbsp;&nbsp;13×4=52&nbsp;&nbsp;14×4=56 <BR>15×4=60&nbsp;&nbsp;16×4=64&nbsp;&nbsp;...&nbsp;&nbsp;28×4=112&nbsp;&nbsp;29×4=116 <BR>30×4=120&nbsp;&nbsp;31×4=124&nbsp;&nbsp;...&nbsp;&nbsp;43×4=172&nbsp;&nbsp;44×4=176 <BR>45×4=180&nbsp;&nbsp;46×4=184&nbsp;&nbsp;...&nbsp;&nbsp;58×4=232&nbsp;&nbsp;59×4=236 <BR>其中,视差值越大,映射后越接近255,在视差图中越亮,视差值越小,映射后越接近0,在视差图中越暗。 <BR>本发明以Il为待匹配图像,以Ir为匹配图像,为左视图中的每一个像素点在右视图中找到对应的匹配点,求得左视图的视差图。表1是本发明实施例结果和Yoon自适应支持权值方法结果的定量比较。从表1中可以看出,本发明在非遮挡区域,深度不连续区域,以及所有区域错误匹配率均比Yoon自适应支持权值方法的错误匹配率低,且本发明的立体匹配时间约为Yoon自适应支持权值方法匹配时间的1/20,匹配速度更快。 <BR>表1 <BR></TABLES> <BR>必要在此指出的是,上面的实施例只是用于进一步阐述本发明,以便于本领域的普通技术人员更好地理解本发明。本发明已通过文字揭露了其首选实施方案,但通过阅读这些技术文字说明可以领会其中的可优化性和可修改性,并在不偏离本发明的范围和精神上进行改进,但这样的改进应仍属于本发明权利要求的?;し段??!  ∧谌堇醋宰ɡ鴚ww.www.4mum.com.cn转载请标明出处</p> </div> </div> </div> </div> <div class="mt10 works-comment"> <div class="works-comment-hd"> <span class="font-tahoma">关于本文</div> <div style="line-height: 25px; padding: 10px 20px;"> 本文标题:一种快速自适应支持权值双目视觉立体匹配方法.pdf<br /> 链接地址:<a href="//www.4mum.com.cn/p-5778554.html">//www.4mum.com.cn/p-5778554.html</a><br /> </div> </div> </div> <div class="boxright" id="boxright" > <div class="fr detail-aside" id="Div11" style="width:270px;"> <div class="box hot-keywords mt10" style="overflow: hidden;width: 268px; border:solid 1px #dedede;" id="relatebox0"> <div class="boxHd" > <div class="fl nt-ico mr5 ml13 ico" style="margin-top: 3px;"> </div> <h2 class="fl font-normal font16 font-yahei" style="font-size: 16px; font-weight: 100; margin-left: 0px; margin-top: 3px; font-family: 微软雅黑"> 当前资源信息</h2> </div> <div id="Div2" class="author-works-list bgF" style="overflow: hidden; padding:10px 10px; "> <table><tr><td> <dt class="author-avatar-box fl"><a class="author-avatar" title="111****112" href="u-265.html"> <img src="//www.4mum.com.cn/images/avatar_small.gif" style="border-radius:50px 50px; " onerror="this.src='images/noavatar_small.gif'" alt="111****112"></a> </dt></td><td> <div class="author-name fl w100 ellipsis"> <a href="u-265.html" target="_blank"> 111****112</a><img style="height:15px; width:20px; overflow:hidden; margin-right:10px;background:url(images/bg_index_ie6_781d95ab.png) no-repeat -185px 4px;display:none" src="images/s.gif" alt="企业认证" title="企业认证"/></div> <div class="author-level-bar"> <span class="mr5 author-grade author-grade5" title="会员等级"></span> </div></td></tr></table> <div class="fl" style="width: 240px;"> <p class="kh_cpZl"> 编号: cj20190318172208972201</p> <p class="kh_cpZl"> 类型: 共享资源</p> <p class="kh_cpZl"> 格式: PDF</p> <p class="kh_cpZl"> 大?。?1.92MB</p> <p class="kh_cpZl"> 上传时间: 2019-03-18</p> </div> </div> </div> <div class="box hot-keywords mt10" style="overflow: hidden;width: 268px; border:solid 1px #dedede;" id="relatebox"> <div class="boxHd" style="padding-bottom: 0px;"> <div class="fl keywords-ico mr5 ml13 ico"> </div> <h2 class="fl font-normal font16 font-yahei" style="font-size: 16px; font-weight: 100; margin-left: 0px; margin-top: 3px; font-family: 微软雅黑"> 相关资源</h2> </div> <div id="author-works-list" class="author-works-list bgF"> <li class="vprdn"> <img alt="智能枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326879.html" title="智能枪支管理系统.pdf">智能枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="用于弹药储运监测与智能管理的方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326820.html" title="用于弹药储运监测与智能管理的方法.pdf">用于弹药储运监测与智能管理的方法.pdf</a> </li> <li class="vprdn"> <img alt="一种具有指静脉识别功能的枪支及枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326812.html" title="一种具有指静脉识别功能的枪支及枪支管理系统.pdf">一种具有指静脉识别功能的枪支及枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="一种具有指静脉识别功能的枪支及枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326802.html" title="一种具有指静脉识别功能的枪支及枪支管理系统.pdf">一种具有指静脉识别功能的枪支及枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="智能枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326456.html" title="智能枪支管理系统.pdf">智能枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="一种基于RFID的枪支位置判定系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326443.html" title="一种基于RFID的枪支位置判定系统.pdf">一种基于RFID的枪支位置判定系统.pdf</a> </li> <li class="vprdn"> <img alt="信用卡套现识别方法和装置.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326441.html" title="信用卡套现识别方法和装置.pdf">信用卡套现识别方法和装置.pdf</a> </li> <li class="vprdn"> <img alt="用于控制生产过程的系统和方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421312.html" title="用于控制生产过程的系统和方法.pdf">用于控制生产过程的系统和方法.pdf</a> </li> <li class="vprdn"> <img alt="一种处理视频的方法及其系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421251.html" title="一种处理视频的方法及其系统.pdf">一种处理视频的方法及其系统.pdf</a> </li> <li class="vprdn"> <img alt="基于脑电信号特征的影片剪辑筛选辅助仪及实现方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421139.html" title="基于脑电信号特征的影片剪辑筛选辅助仪及实现方法.pdf">基于脑电信号特征的影片剪辑筛选辅助仪及实现方法.pdf</a> </li> <li class="vprdn"> <img alt="基于动态内插技术的通用化测控信道模拟方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421123.html" title="基于动态内插技术的通用化测控信道模拟方法.pdf">基于动态内插技术的通用化测控信道模拟方法.pdf</a> </li></div> </div> <div class="box hot-keywords mt10" id="box3" style="overflow: hidden;width: 268px; border:solid 1px #dedede;"> <div class="boxHd" style="border: none;padding-bottom: 0px;"> <div class="fl keywords-ico mr5 ml13 ico"> </div> <h2 class="fl font-normal font16 font-yahei" style="font-size: 16px; font-weight: 100; margin-left: 0px; margin-top: 3px; font-family: 微软雅黑"> 相关搜索</h2> </div> <div class="hot-keywords-list"> <a target="_blank" href="search.html?p=0&q=%e4%b8%80%e7%a7%8d" class="tag-item ico" title="一种" hidefocus="true"><span class="ico"><em> 一种</em></span></a> <a target="_blank" href="search.html?p=0&q=%e5%bf%ab%e9%80%9f" class="tag-item ico" title="快速" hidefocus="true"><span class="ico"><em> 快速</em></span></a> <a target="_blank" href="search.html?p=0&q=%e8%87%aa%e9%80%82%e5%ba%94" class="tag-item ico" title="自适应" hidefocus="true"><span class="ico"><em> 自适应</em></span></a> <a target="_blank" href="search.html?p=0&q=%e6%94%af%e6%8c%81" class="tag-item ico" title="支持" hidefocus="true"><span class="ico"><em> 支持</em></span></a> <a target="_blank" href="search.html?p=0&q=%e5%8f%8c%e7%9b%ae" class="tag-item ico" title="双目" hidefocus="true"><span class="ico"><em> 双目</em></span></a> <a target="_blank" href="search.html?p=0&q=%e8%a7%86%e8%a7%89" class="tag-item ico" title="视觉" hidefocus="true"><span class="ico"><em> 视觉</em></span></a> <a target="_blank" href="search.html?p=0&q=%e7%ab%8b%e4%bd%93" class="tag-item ico" title="立体" hidefocus="true"><span class="ico"><em> 立体</em></span></a> <a target="_blank" href="search.html?p=0&q=%e5%8c%b9%e9%85%8d" class="tag-item ico" title="匹配" hidefocus="true"><span class="ico"><em> 匹配</em></span></a> <a target="_blank" href="search.html?p=0&q=%e6%96%b9%e6%b3%95" class="tag-item ico" title="方法" hidefocus="true"><span class="ico"><em> 方法</em></span></a> <input name="ctl00$Content$hiddenCategoryID" type="hidden" id="Content_hiddenCategoryID" value="122" /> </div> </div> </div> </div> <!--end boxright--> <!--end layout01--> </div> <!--end mainpart--> </div> <div class="aspNetHidden"><input type="hidden" name="__VIEWSTATEGENERATOR" id="__VIEWSTATEGENERATOR" value="541A68AF" /></div></form> <div style="display: none" id="Div3"> </div> <div id="jubao" class="jubao" style="display: none;"> <div class="jubaoTitle"> 举报类型</div> <ul class="vprdn"> <li class="vprdn"> <input type="radio" id="jubaoSel12" name="jubaoSel12" value="12" />&nbsp;&nbsp; <label for="jubaoSel12">广告或垃圾信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel13" name="jubaoSel13" value="13" />&nbsp;&nbsp; <label for="jubaoSel13">色情、淫秽、低俗信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel14" name="jubaoSel14" value="14" />&nbsp;&nbsp; <label for="jubaoSel14">反政府、反人类、反社会等反动信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel15" name="jubaoSel15" value="15" />&nbsp;&nbsp; <label for="jubaoSel15">散布赌博、暴力、凶杀、恐怖或者教唆犯罪等信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel16" name="jubaoSel16" value="16" />&nbsp;&nbsp; <label for="jubaoSel16">侮辱、诽谤等人身攻击信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel17" name="jubaoSel17" value="17" />&nbsp;&nbsp; <label for="jubaoSel17">散布谣言、扰乱社会秩序,破坏社会稳定等信息</label> </li> <li style="text-align: center; height: 50px; margin-top: 10px;"> <input type="hidden" id="hidTypeID" /> <input type="button" onclick="saveJuBao()" value="提 交" />&nbsp;&nbsp;&nbsp;&nbsp;<input type="button" onclick="$('#jubao').hide();" value="取 消" /></li> </ul> </div> <div id="jubaoResponse" class="jubao" style="display: none;"> <div class="jubaoTitle"> 提示</div> <ul class="vprdn"> <li class="vprdn"> <h4 style="text-align: center; color: rgb(83, 136, 35);"> </h4> </li> <li style="text-align: center; height: 50px; margin-top: 10px;"> <input type="button" onclick="$('#jubaoResponse').hide();" value="关 闭" /> </ul> </div></div> <div class="tempdiv" style="display:none;line-height:0px;height:0px; overflow:hidden;"> </div> <!-- JiaThis Button END --> <span id="LabelScript"></span> </div> </div> <!--foot--><div class="bg_100 foot_nav_bg" style=" min-width:1200px;"> <div class="foot_nav"> <a href="//www.4mum.com.cn/h-33.html" target="_blank" rel="nofollow">关于我们</a> - <a href="//www.4mum.com.cn/h-34.html" target="_blank" rel="nofollow">网站声明</a> - <a href="//www.4mum.com.cn/h-35.html" target="_blank" rel="nofollow"> 网站地图</a> - <a href="//www.4mum.com.cn/sitemap.html" target="_blank" rel="nofollow"> 资源地图</a> - <a href="//www.4mum.com.cn/friend.aspx" target="_blank" rel="nofollow">友情链接</a> - <a rel="nofollow">网站客服</a> - <a href="//www.4mum.com.cn/h-93.html" target="_blank" rel="nofollow">联系我们</a> </div></div><div class="bg_100 siteInner_bg" style=" min-width:1200px;"> <div class="siteInner"> <p style="text-align: center; line-height: 1.75em;"><span style="font-size: 14px;"><span style="font-size: 14px; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &#39;Times New Roman&#39;; line-height: 20px; text-align: center;">copyright@ 2017-2018 www.4mum.com.cn网站版权所有</span><br style="color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &#39;Times New Roman&#39;; font-size: 12px; line-height: 20px; text-align: center; white-space: normal; "/><span style="font-size: 14px; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &#39;Times New Roman&#39;; line-height: 20px; text-align: center;">经营许可证编号:粤ICP备17046363号-1&nbsp;</span></span> &nbsp;</p><p><br/></p> </div></div><!--foot end--> <!-- 代码部分begin --><div class="QQ_S" style="height: 172px;position:fixed;right: 0px;bottom: 20px; top:auto;"> <div class="Q_top" onclick="HideFoot()"> <span class="signi"></span>收起</div> <div class="Q_botm"> <div class="Q_pic"> <div class="Q_pic_hide"> <a target="_blank" title="在线客服" rel="nofollow"><span class="hide_pic"></span>在线客服</a> </div> </div> <div class="Q_anser"> <div class="Q_anser_hide"><a target="_blank" title="意见反馈"> <span class="hide_pic1"></span>意见反馈 </a> </div> </div> <div class="Q_sign"> <div class="Q_sign_hide" onclick="backToTop();"><a href="javascript:void(0)" title="返回顶部"><span class="hide_pic2"></span>返回顶部 </a></div> </div> </div></div><div class="QQ_S1"> <div class="Q_top1" onclick="ShowFoot()"> <span class="signj"></span>展开</div> <div class="Q_botm1"> <div class="Q_pic1"> <div class="Q_pic1_hide"> <a href="//www.4mum.com.cn/" title="重庆时时彩单双窍门">重庆时时彩单双窍门</a></div> </div> <div class="Q_sign1"> <div class="Q_sign1_hide" onclick="backToTop();"><a href="javascript:void(0)">返回顶部</a></div> </div> </div></div> <!-- 代码部分end --> <li><a href="//www.4mum.com.cn/77d944/69034815.html ">四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 </a> 2019-05-13</li> <li><a href="//www.4mum.com.cn/euy29/3433514.html ">银保监会新规剑指大企业多头融资和过度融资 </a> 2019-05-12</li> <li><a href="//www.4mum.com.cn/a62999/3431813.html ">韩国再提4国联合申办世界杯 中国网友无视:我们自己来 </a> 2019-05-11</li> <li><a href="//www.4mum.com.cn/4kf294/98434412.html ">中国人为什么一定要买房? </a> 2019-05-11</li> <li><a href="//www.4mum.com.cn/33r392/76278011.html ">十九大精神进校园:风正扬帆当有为&nbsp;勇做时代弄潮儿 </a> 2019-05-10</li> <li><a href="//www.4mum.com.cn/1jd106/47417610.html ">粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 </a> 2019-05-09</li> <li><a href="//www.4mum.com.cn/997397/2262689.html ">太原设禁鸣路段 设备在测试中 </a> 2019-05-09</li> <li><a href="//www.4mum.com.cn/br3559/3646538.html ">拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 </a> 2019-05-08</li> <li><a href="//www.4mum.com.cn/9h7915/8581547.html ">“港独”没出路!“梁天琦们”该醒醒了 </a> 2019-05-07</li> <li><a href="//www.4mum.com.cn/3n3511/2345366.html ">陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 </a> 2019-05-06</li> <li><a href="//www.4mum.com.cn/b0059/6332815.html ">人民日报客户端辟谣:“合成军装照”产品请放心使用 </a> 2019-05-05</li> <li><a href="//www.4mum.com.cn/v5j888/7405464.html ">【十九大·理论新视野】为什么要“建设现代化经济体系”?&nbsp;&nbsp; </a> 2019-05-04</li> <li><a href="//www.4mum.com.cn/pl1926/4722623.html ">聚焦2017年乌鲁木齐市老城区改造提升工程 </a> 2019-05-04</li> <li><a href="//www.4mum.com.cn/14g861/9039202.html ">【专家谈】上合组织——构建区域命运共同体的有力实践者 </a> 2019-05-03</li> <li><a href="//www.4mum.com.cn/7jn906/5662951.html ">【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! </a> 2019-05-03</li> <script>(function(){ var src = (document.location.protocol == "") ? "//js.passport.qihucdn.com/11.0.1.js?9ed1f3a8f9c3ff069b7b95c01474c743":"https://jspassport.ssl.qhimg.com/11.0.1.js?9ed1f3a8f9c3ff069b7b95c01474c743"; document.write('<script src="' + src + '" id="sozz"><\/script>'); })(); </script> <script> (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = '//push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })(); </script> <a href="//www.682089.live">星力彩金捕鱼</a> <a href="//www.332624.live">双色球杀号定胆公式期期用</a> <a href="//www.338527.live">二人麻将有什么技巧</a> <a href="//www.452562.live">全民内蒙古麻将技巧</a> <a href="//10361571.com">广东快乐10分规则</a> <a href="//www.7742613.live">2018年最新买马资料全</a> <a href="//www.238313.live">福州麻将清一色怎么打</a> <a href="//www.735016.live">最赚钱学科</a> <a href="//www.5911622.live">黑龙江22选5大星走势图</a> <a href="//www.606298.live">百赢棋牌APP</a> <a href="//www.078580.live">今天江苏快三一定牛</a> <a href="//www.789317.live">北京快三开奖时间</a> <a href="//48663623.com">极速时时彩计划</a> <a href="//www.0861822.live">体育彩票青海11选5开奖</a> <a href="//www.8515959.live">惠泽社群透码</a> <a href="//www.939316.live">潮州体育彩票官网</a> </body></html>