• 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
    • / 19
    • 下载费用:30 金币  

    重庆时时彩国际米博: 一种基于平台惯姿参数的序列图像目标递推识别方法.pdf

    关 键 词:
    一种 基于 平台 参数 序列 图像 目标 识别 方法
      专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    摘要
    申请专利号:

    CN201110266278.X

    申请日:

    2011.09.09

    公开号:

    CN102359788A

    公开日:

    2012.02.22

    当前法律状态:

    授权

    有效性:

    有权

    法律详情: 授权|||实质审查的生效IPC(主分类):G01C 21/24申请日:20110909|||公开
    IPC分类号: G01C21/24; G06K9/62 主分类号: G01C21/24
    申请人: 华中科技大学
    发明人: 杨卫东; 朱鹏; 朱虎; 黎云; 杨洋; 张桥
    地址: 430074 湖北省武汉市洪山区珞喻路1037号
    优先权:
    专利代理机构: 华中科技大学专利中心 42201 代理人: 李智
    PDF完整版下载: PDF下载
    法律状态
    申请(专利)号:

    CN201110266278.X

    授权公告号:

    102359788B||||||

    法律状态公告日:

    2013.02.13|||2012.04.04|||2012.02.22

    法律状态类型:

    授权|||实质审查的生效|||公开

    摘要

    本发明提供了一种基于平台惯姿参数的序列图像目标递推识别方法,该方法在初始全图捕获结果的基础上,利用成像姿态参数对序列图像中目标点像素坐标进行递推预测,并结合局部检测识别的方法进行精确定位,缩小了序列图像目标识别过程中搜索范围,抑制背景图像对目标检测识别的干扰,减少了目标识别定位计算时间,有效的提高了目标识别的可靠性和定位精度,为动平台成像精确导航提供可靠、高效的目标识别策略。

    权利要求书

    1: 一种基于平台惯姿参数的序列图像目标递推识别方法, 具体为 : (1) 依据目标初始像素坐标计算当前帧图像中光轴点在目标坐标系中的位置 ; (2) 依据当前帧中光轴点在目标坐标系中的位置估计下一帧图像中光轴点在目标坐标 系中的位置 ; (3) 依据下一帧图像中光轴点在目标坐标系中的位置预测该下一帧图像中目标最终像 素坐标 ; (4) 在该该下一帧图像中以目标最终像素坐标为中心构建局部搜索窗口, 通过在局部 搜索窗口内捕获目标以更新目标最终像素坐标, 更新后的目标最终像素坐标作为下一次识 别的目标初始像素坐标。
    2: 根据权利要求 1 所述的基于平台惯姿参数的序列图像目标递推识别方法, 其特征在 于, 首次识别中的目标初始像素坐标是在历史序列图像中全图捕获得到。
    3: 根据权利要求 1 所述的基于平台惯姿参数的序列图像目标递推识别方法, 其特征在 于, 所述步骤 (1) 具体为 : 当前帧中光轴点在目标坐标系中的位置 (xo0, yo0, zo0) 计算方法 为: yo0 = 0 其中 dAv = ROW/φ α0 为成像仪方位角, θ0 为成像仪俯仰角, h0 为成像仪高度, γ0 为成像仪滚转角, φ 为成像仪纵向成像视场角, 为成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像列 数, (uc0, vc0) 为目标初始位置。
    4: 根据权利要求 2 所述的基于平台惯姿参数的序列图像目标递推识别方法, 其特征在 于, 所述步骤 (2) 具体为 : 下一帧中光轴点在目标坐标系中的位置 (xo(i), yo(i), zo(i)) 的计算 方法为 : xo(i) = xo0+ΔPx(i) zo(i) = zo0+ΔPz(i) yo(i) = 0 其中, ΔPx(i) = hictgθicosαi-h0ctgθ0cosα0+Δxi ΔPz(i) = hictgθisinαi-h0ctgθ0sinα0+Δzi 且, 2 Δxi = Δti×wx×dAu Δzi = Δti×wz×dAv dAv = ROW/φ (xo0, 0, zo0) 为当前帧光轴点在目标坐标系中的位置, Δti 表示当前帧到下一帧的成像 时间差 ; ωx 为成像平台沿目标坐标系 x 轴方向的角速度, wz 为成像平台沿目标坐标系 z 轴 方向的角速度 ; α0、 θ0、 h0 分别表示当前帧图像成像的方位角, 俯仰角, 高度 ; αi、 θi、 hi 分 别表示下一帧图像对应的成像方位角, 俯仰角, 高度 ; φ 为成像仪纵向成像视场角, 为成 像仪横向成像角, ROW 为实时成像行数, COL 为实时成像列数。
    5: 根据权利要求 2 所述的基于平台惯姿参数的序列图像目标递推识别方法, 其特征在 于, 所述步骤 (3) 具体为 : 目标最终像素坐标 (uc(i), vc(i)) 的计算方法为 : uc(i) = dAu×[(Av(i)-θi)×sinγi+Au(i)×cosγi] vc(i) = dAv×[(Av(i)-θi)×cosγi-Au(i)×sinγi] 其中, dAv = ROW/φ αi、 θi、 hi 和 γi 分别表示下一帧图像成像对应的方位角、 俯仰角、 高度和滚转角, (xo(i), 0, zo(i)) 为下一帧图像中光轴点在目标坐标系中的位置, φ 为成像仪纵向成像视场 角, 为成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像列数。
    6: 根据权利要求 1 或 2 或 3 或 4 或 5 所述的基于平台惯姿参数的序列图像目标递推识 别方法, 其特征在于, 所述步骤 (4) 中的局部搜索窗口的长度 T_Row 和宽度 T_Col 分别为 : T_Row = L_Row+2×biasX T_Col = L_Col+2×biasZ 其中, biasX = maxωx×Δt×dAu biasZ = maxωz×Δt×dAv Length, Width 表示目标在大地坐标下的实际长宽, φ 为成像仪纵向成像视场角, 为 成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像列数, θ 和 h 分别为成像俯仰角 和高度 ; maxωx, maxωz 分别表示飞行器在 x 轴方向和 z 轴方向的最大角速度 ; Δt 表示飞 行器在相邻两帧图像时间差, dAu 和 dAv 分别表示横向和纵向角分辨率。

    说明书


    一种基于平台惯姿参数的序列图像目标递推识别方法

        技术领域 本发明属于飞行器自主导航与成像目标识别的技术领域, 具体涉及一种基于平台 惯姿参数的序列图像目标递推识别方法, 实现对序列图像中目标的快速精确定位, 为成像 精确导航提供新的目标识别跟踪方法和策略。
         背景技术
         在计算资源受限条件下如何提高自动目标识别系统的识别率和实时性是导航识 别定位技术领域的一个难题, 对于该技术的研究具有广泛的应用价值。
         飞行器导航在不同时相、 天候、 视点和高度等条件下, 成像传感器获取的光学图像 中目标背景特性变化大。 尤其是在远距离成像条件下, 对复杂背景下的地面目标识别, 由于 目标小, 视场内与目标相似的重复模式较多, 存在大量的干扰, 增加了目标的识别和精确定 位的难度。 在数字图像处理领域, 传统的目标识别的方法是利用制备好的目标特征模板图像 在实时图像全图范围内搜索, 进行相关匹配识别, 从而定位目标点的像素坐标位置。 然而当 目标所在的场景比较复杂, 背景中存在多个目标特征相识的重复模式, 或者在成像条件不 理想的情况下造成所成实时图像对比度低, 背景中形成很多与目标特征相近的区域时, 利 用传统的匹配识别方法进行目标识别往往产生误捕现象, 从而不能满足目标识别定位的要 求。 同时, 对全视场的搜索和目标识别, 其计算量大, 在飞行器平台计算资源受限的条件下, 序列图像目标实时识别难度大, 需发展快速识别方法。
         在现有公开的文献中, 还没有专门针对复杂成像环境来进行序列图像目标快速自 动定位识别技术的报道, 而该类目标的自动定位识别问题又是导航定位领域不得不解决的 技术难题, 需要新的技术方案来解决。
         如何充分利用平台成像系统获取的成像姿态参数来预测目标在图像中的坐标从 而对目标进行局部识别和精确定位, 对于飞行器精确导航具有十分重要的意义。
         发明内容 本发明提供了一种基于平台惯姿参数的序列图像目标递推识别方法, 目的在于解 决因光学成像条件变化或者场景中存在与目标特征相识的模式而导致所成图像对比度较 低、 目标与背景相比特征不明显, 或者图像背景中存在较多与目标相似的重复模式的情况 下目标难以精确识别定位的问题。
         一种基于平台惯姿参数的序列图像目标递推识别方法, 具体为 :
         (1) 依据目标初始像素坐标计算当前帧图像中光轴点在目标坐标系中的位置 ;
         (2) 依据当前帧中光轴点在目标坐标系中的位置估计下一帧图像中光轴点在目标 坐标系中的位置 ;
         (3) 依据下一帧图像中光轴点在目标坐标系中的位置预测该下一帧图像中目标最 终像素坐标 ;
         (4) 在该该下一帧图像中以目标最终像素坐标为中心构建局部搜索窗口, 通过在 局部搜索窗口内捕获目标以更新目标最终像素坐标, 更新后的目标最终像素坐标作为下一 次识别的目标初始像素坐标。
         首次识别中的目标初始像素坐标是在历史序列图像中全图捕获得到。
         所述步骤 (1) 具体为 : 当前帧中光轴点在目标坐标系中的位置 (xo0, yo0, zo0) 计算 方法为 :
         yo0 = 0 其中
         dAv = ROW/φ
         α0 为成像仪方位角, θ0 为成像仪俯仰角, h0 为成像仪高度, γ0 为成像仪滚转角, φ 为成像仪纵向成像视场角, 为成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像 列数, (uc0, vc0) 为目标初始位置。
         所述步骤 (2) 具体为 : 下一帧中光轴点在目标坐标系中的位置 (xo(i), yo(i), zo(i)) 的 计算方法为 :
         xo(i) = xo0+ΔPx(i)
         zo(i) = zo0+ΔPz(i)
         yo(i) = 0
         其中,
         ΔPx(i) = hictgθicosαi-h0ctgθ0cosα0+Δxi
         ΔPz(i) = hictgθisinαi-h0ctgθ0sinα0+Δzi
         且,
         Δxi = Δti×wx×dAu
         Δzi = Δti×wz×dAv
         dAv = ROW/φ
         (xo0, 0, zo0) 为当前帧光轴点在目标坐标系中的位置, Δti 表示当前帧到下一帧的 成像时间差 ; ωx 为成像平台沿目标坐标系 x 轴方向的角速度, wz 为成像平台沿目标坐标系 z 轴方向的角速度 ; α0、 θ0、 h0 分别表示当前帧图像成像的方位角, 俯仰角, 高度 ; αi、 θi、 hi 分别表示下一帧图像对应的成像方位角, 俯仰角, 高度 ; φ 为成像仪纵向成像视场角, 为成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像列数。
         所述步骤 (3) 具体为 : 目标最终像素坐标 (uc(i), vc(i)) 的计算方法为 :
         uc(i) = dAu×[(Av(i)-θi)×sinγi+Au(i)×cosγi]
         vc(i) = dAv×[(Av(i)-θi)×cosγi-Au(i)×sinγi] 其中,
         dAv = ROW/φ
         αi、 θi、 hi 和 γi 分别表示下一帧图像成像对应的方位角、 俯仰角、 高度和滚转角, (xo(i), 0, zo(i)) 为下一帧图像中光轴点在目标坐标系中的位置, φ 为成像仪纵向成像视场 角, 为成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像列数。
         所述步骤 (4) 中的局部搜索窗口的长度 T_Row 和宽度 T_Col 分别为 :
         T_Row = L_Row+2×biasX
         T_Col = L_Col+2×biasZ
         其中,
         biasX = maxωx×Δt×dAu
         biasZ = maxωz×Δt×dAv
         Length, Width 表示目标在大地坐标下的实际长宽, φ 为成像仪纵向成像视场角, 为成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像列数, θ 和 h 分别为成像俯仰 角和高度 ; maxωx, maxωz 分别表示飞行器在 x 轴方向和 z 轴方向的最大角速度 ; Δt 表示 飞行器在相邻两帧图像时间差, dAu 和 dAv 分别表示横向和纵向角分辨率。
         本发明的技术效果体现在 :
         由于各种原因导致所成光学图像中存在较多与目标特征相似的重复模式, 使得目 标不能被准确识别定位。 本发明通过利用平台成像系统获取的成像姿态参数对序列图像中 目标像素坐标位置进行预测, 然后通过局部匹配定位的方式实现精确定位, 保证了目标自 动识别定位系统的鲁棒性和自适应性, 克服了因实时图像中存在较多重复模式而无法精确 识别定位的缺陷。
         本发明在目标初始捕获及光轴点估计阶段, 以目标点坐标为基准, 根据初始捕获 得到的目标像素坐标估计出目标坐标系下光轴点位置, 并依据成像姿态参数预测序列中下 一帧图像地面光轴点位置。在目标点像素坐标递推预测阶段, 根据地面光轴点位置及成像
         姿态参数反推目标在图像中的像素坐标位置, 然后以该位置为依据进行局部定位, 实现目 标的精确定位。 因光学成像条件变化或者场景中存在与目标特征相识的模式而导致所成图像对比度较低、 目标与背景相比特征不明显, 或者图像背景中存在较多与目标相似的重复 模式的情况下目标精确识别定位, 为调高目标自动识别的识别率提供了新的思路, 对目标 自动识别和导航定位技术的研究发展具有重大意义。
         本发明在目标识别定位过程中先对目标点像素坐标进行预测, 然后利用局部定位 的方式代替全图搜索, 大大缩小了计算过程中目标搜索范围, 节省了识别的计算时间, 提高 了整个目标自动识别系统的性能, 为对目标识别实时性要求较高的应用场合提供了一种可 行的方法和新的思路。 附图说明 图 1 为本发明基于平台惯姿参数的序列图像目标递推识别方法的总体流程图 ;
         图 2 为本发明中定义的成像几何数学模型, 包括目标坐标系、 成像平台测量坐标 系、 视线坐标系示意图 ;
         图 3 为本发明中成像姿态参数定以及成像视场范围示意图 ;
         图 4 为本发明中对初始目标点像素坐标轨迹进行移动式管道滤波的原理示意图 ;
         图 5 为本发明中空间几何坐标变换示意图 ;
         图 6 为本发明中地面光轴点位置估计示意图 ;
         图 7 为本发明中根据地面光轴点位置预测目标点像素坐标的示意图 ;
         图 8 为利用本发明中算法和不利用本发明算法时, 高度与上下帧图像中目标识别 定位结果的横坐标偏差曲线对比图 ;
         图 9 为利用本发明中算法和不利用本发明算法时, 高度与上下帧图像中目标识别 定位结果的纵坐标偏差曲线对比图。
         具体实施方式
         一种基于平台惯姿参数的序列图像目标递推预测识别方法总体流程图 1 所示, 方 法具体过程为 :
         1、 目标点初始像素坐标捕获
         (1.1) 坐标系及惯姿参数定义
         为了建立成像几何数学模型, 定义目标坐标系、 成像平台测量坐标系、 视线坐标 系, 分别如下 :
         (1) 目标坐标系 ogAxgAygAzgA
         目标坐标系 ogAxgAygAzgA 为成像器所观测的目标所在的世界坐标系, 即以初始成像 时刻探测目标点几何中心 ogA 为原点, ogAygA 轴与当地参考椭球体法线一致且指向上方, 天为 正; ogAxgA 当地水平面正北向, 指向北为正, ogAzgA 轴与 ogAxgA、 ogAygA 轴成右手正交坐标系, 东 为正如图 2 所示。
         (2) 飞行器坐标系 oRxRyRzR
         以飞行器质心 oR 为原点, oRxR 沿平台轴向且指向头部, 不计安装误差时, 平台测量 坐标系与飞行器坐标系重合。成像平台输出角度信息为飞行器的俯仰角 θ、 方位角 α、 侧 滚角 γ。
         (3) 视线坐标系 oRxSySzS指以目标为基准, 定义的观测角度测量坐标系。 以飞行器质心 oR 为原点, oRxs 轴与 飞行器至目标的视线一致, oRzs 轴与目标点所在的水平面平行且与 oRxs 轴垂直指向右, oRys 轴与 oRxs 轴、 oRzs 轴成右手正交坐标系。
         (1.2) 目标点初始捕获
         (1.2.1) 全图匹配获取前 n 帧图像中目标的轨迹坐标
         在全图匹配时, 可采用基于灰度互相关匹配算法、 基于相位互相关匹配算法、 基于 互信息匹配算法和基于特征的匹配算法等方法。 本发明采用的是去均值归一化的灰度互相 关匹配算法, 并针对算法实时性需要做了相应的简化。
         假设模板为 M, 其大小为 Rr×Cr, 待匹配图像为 F, 其大小为 Rs×Cs, 且 Rs > Rr, Rs > Rr, 那么计算的遍历范围为 (Rs-Rr)×(Cs-Cr)。 由去均值归一化互相关算法的计算公式可知, 模板和待匹配图像卷积后除于模板的方差和待匹配图像当前位置的方差。
         在实时性要求较高的情形下, 除了保证计算结果的精确性之外, 以存储空间换取 计算时间也是一种十分有效的途径。 在待匹配点遍历的每个点都进行了除以模板的方差这 一项, 因此实际计算时可不除模板方差, 待获得计算相关系数最大值后再去除以模板的方 差, 这样省去一次除法运算。将上述给出的归一化去均值互相关匹配度量转化为 :
         对上述公式进行简化, 去除开根号操作后为 :
         对上式的分子进行简化, 得:其中 :Δ = Rr×Cr 其中 M(x, y) 为模板内像素点 (x, y) 的灰度值, 为模板的灰度均值, Dmn 为待匹配图像在点 (m, n) 处模板大小范围的方差的平方, F(x+m, y+n) 为待匹配图像的点 (x+m, 其中 0 ≤ m ≤ (Rs-Rr), 0 ≤ n ≤ (Cs-Cr)。 y+n) 的灰度值, 为待匹配图像的灰度均值, (1.2.2) 确定初始目标像素坐标
         (1) 确定目标点波动范围
         由于飞行器角速度在一个成像周期内按照相对稳定的值做匀速变化, 根据这一条 件, 可以估计出序列中相邻两帧图像目标点像素坐标位置的波动范围。具体计算过程如 下:
         Δx = maxωx×Δt×dAu
         Δy = maxωy×Δt×dAv
         其中 Δx, Δy 分别表示相邻两帧图像目标点横纵坐标的最大波动范围, maxωx, maxωy 分别表示飞行器在 x 轴方向和 z 轴方向的最大角速度 ; Δt 表示飞行器在相邻两帧 图像时间差, dAu, dav 分别表示横向和纵向角分辨率,
         (2) 移动式管道滤波
         根据飞行器在飞行过程中角速度变化规律可知, 所成序列图像中目标点坐标轨迹 均在一定范围内波动, 于是可以根据估计出的序列中相邻两帧图像目标点像素坐标位置的 波动范围这一量为依据, 建立一个基于目标点在所成图像中轨迹的时域管道滤波器, 对全 局匹配得到的 n 个轨迹点进行滤波, 滤除误捕结果, 得到准确的目标点初始坐标位置, 如图 4 所示。
         将制备好的目标基准参考图与图像序列的前 n(n >= 3) 帧图像作全图匹配, 得到目标点的轨迹表示为 : A0, A1...An, 其对应的像素坐标位置点分别为 : (x0, y0), (x1, y1)...(xn, yn), n 的大小根据算法实时性要求来选择。
         假设滤波器管道长度为 N(N <= n, N 一般取奇数 ), 波门大小用 M(l, d) 来表示, 其中 l、 d 分别表示滤波器波门的长度和宽度, 滤波管道采取先入先出的方式进行。
         将候选目标点 Ai(i = 1, 2, ...n) 作为当前管道的中心, 计算与其相邻 N-1 帧图像 ( 前后各
         帧 ) 与该管道内其它所有轨迹点是否满足如下条件, 判断公式如下 :xj-Δn×Δx <= xi <= xj+Δn×Δx
         yj-Δn×Δy <= yi <= yj+Δn×Δy
         其中 Δn 表示前后序列图像的帧差, Δx、 Δy 表示由 1.2.2 中估算出的序列中相 邻两帧图像目标点像素坐标位置的波动范围, j <= i <= N, 且有 :
         Δn = i-j+1
         Δx = maxωx×Δt×dAu
         Δy = maxωy×Δt×dAv
         对满足条件的点用计数器对其进行计算, 用 kt 表示, 若管道内的候选目标点满足 上述判断条件, 则将 kt 的值加 1, 当 内有效点数
         时, 认为管道内该点有效, 当管道时, 认为管道中心点为当前帧图像中准确的目标点坐标 (xi, yi)·。不断更新管道中的图像, 将所选取的图像序列中目标点的轨迹坐标经过管道滤波 后, 滤除误捕结果, 得到准确的目标点坐标 (x0, y0)·, (x1, y1)·...(xs, ys)·。选取帧号离 n 最近的目标点坐标 (xs, ys)·作为目标点的初始坐标位置 (uc0, vc0) 进行后续计算。
         2、 光轴点位置估计
         (2.1) 光轴点初始位置估计
         (2.1.1) 目标坐标系下变换模型
         如图 5 所示, 将目标坐标系下目标点位置坐标变换到图像坐标系中目标点像素坐 标, 计算方法如下 :
         在目标坐标系下, 假定成像时刻对应平台位置为 P, 定义成像姿态参数为 (h, α, θ, γ), 平台测量坐标系的原点为 OR(xR, x R, zR), 相机光轴指向的地面点 ( 以下简称地面光轴点 ) 坐标为 Oo(xo, yo, zo), 则有 :
         xo = xR+h·ctgθ·cosα
         zo = zR+h·ctgθ·sinα
         yR = h
         yo = 0
         在不考虑侧滚角 γ 的情况下, 目标点对应在图像中的坐标为 (u, v), 则有 :
         u = COL/2+Au·dAu
         v = ROW/2+(Av-θ)·dAv
         其中横向角分辨率 和纵向角分辨率 dAv = ROW/φ, 为横向视场角, φ 为纵向视场角, ROW 为实时成像行数, COL 为实时成像列数。
         姿态侧滚角导致目标点在图像平面中的旋转变换, 其坐标为 (uc, vc) :由上述公式可见, 在目标坐标系下, 确定地面光轴点位置 (xo, yo, zo) 后, 给定成像 姿态参数即可计算出目标点在实时图中的坐标 (uc, vc)。上述模型可表示为以下形式 :
         (uc, vc) = F[(xo, zo)|h, α, θ, γ]
         相应的逆变换模型为 :
         (xo, zo) = F-1[(uc, vc)|h, α, θ, γ]
         (2.1.2) 地面光轴点位置估计
         由于在目标点初始坐标捕获阶段已经得到了目标点在图像中的像素坐标, 根据上 述逆变换模型, 如图 5 所示, 将目标在所成图像中的初始坐标位置 (uc0, vc0) 作为已知量, 来 求解目标坐标系中对应的地面光轴点位置 (xo0, yo0, zo0), 具体计算过程如下 :
         首先计算目标点与光轴点在横纵向的张角 (Au0, Av0) :
         由变化模型有 :
         通过矩阵的逆变换可以得到 :
         那么 :根据得到的横纵向的张角 (Au0, Av0) 求解目标坐标系下对应的地面光轴点位置 (xo0, yo0, zo0) :
         yo0 = 0
         其中 α0 为成像方位角, θ0 为成像俯仰角, γ0 为成像仪滚转角, h0 为成像高度, φ 为成像仪纵向成像视场角, 为成像仪横向成像角, ROW 为实时成像行数, COL 为实时成像 列数, dAu, dAv 分别表示横向和纵向角分辨率。
         (2.2) 光轴点位置递推估计
         在该成像条件下, 由于存在平台自身运动, 导致地面光轴点位置发生变化, 所成 图像中的目标点坐标也相应的发生变化??梢愿菽勘曜晗迪鲁跏嫉孛婀庵岬阄恢?, 结合当前帧与下一帧成像姿态参数, 计算目标坐标系下地面光轴点位置偏移量 (ΔPx(i),
         ΔPz(i)), 从而估计出下一帧图像地面光轴点位置 (xo(i), yo(i), zo(i)) 方法如下 :
         如图 6 所示, 选择目标坐标系为参考系, 假设在初始情况下, 成像平台的位置为 : P0(xR0, h0, zR0), 对应的地面光轴点位置为 : Q0(xo0, 0, zo0), 当前帧图像成像平台的位置为 : Pi(xR(i), hi, zR(i)), 对应的地面光轴点位置为 : Qi(xo(i), 0, zo(i)), 则有如下关系 :
         P0 与 Q0 之间有 :
         xR0 = xo0-h0·ctgθ0·cosα0
         zR0 = zR0-h0·ctgθ0·sinα0
         Pi 与 Qi 之间有 :
         xR(i) = xo(i)-hi·ctgθi·cosαi
         zR(i) = zo(i)-hi·ctgθi·sinαi
         由于 P0 与 Pi 是由于平台自身移动而导致的坐标位置差异, 二者之间存在如下关 系:
         xR(i) = xR0+Δxi
         zR(i) = zR0+Δzi
         Δxi、 Δzi 分别表示成像平台在目标坐标系下沿 x 轴和 z 轴方向的移动量 ( 可以 为负值 ), 其计算公式为 :
         Δxi = Δti×wx×dAu
         Δzi = Δti×wz×dAv
         dAv = ROW/φ
         其中 Δti 表示初始帧到当前帧平台运动时间, ωx 为成像平台在目标坐标系 x 轴 方向的角速度, wz 为成像平台在目标坐标系 z 轴方向的角速度。
         这样可以计算得到 :xo(i) = xo0+ΔPx(i)
         zo(i) = zo0+ΔPz(i)
         yo(i) = 0
         且有 :
         ΔPx(i) = hictgθicosαi-h0ctgθ0cosα0+Δxi
         ΔPz(i) = hictgθisinαi-h0ctgθ0sinα0+Δzi
         在很多场合, 当两帧图像帧号差小, 且成像时间差较短时, 如图 8 所示, 可以近视 的认为 P0 与 Pi 在目标坐标系下 XOZ 平面上的投影重合, 及忽略成像平台在目标坐标系下沿 x 轴和 z 轴方向的移动量, 此时 :
         Δxi = Δzi = 0
         在上述推导过程中, α0、 θ0、 h0 分别表示当前帧的方位角, 俯仰角, 高度 ; αi、 θi、 hi 分别表示下一帧应的方位角, 俯仰角, 高度 ; φ 为成像仪纵向成像视场角, 为成像仪横 向成像角, ROW 为实时成像行数, COL 为实时成像列数。
         3、 目标点坐标预测及精确定位
         (3.1) 目标点坐标预测 如图 7 所示, 通过推算得到下一帧图像地面光轴点位置 (xo(i), yo(i), zo(i)) 后, 可以 根据其成像姿态参数预测目标点在下一帧图像中的像素坐标位置 (uc(i), vc(i))。
         首先计算目标点与地面光轴点之间的张角 (Au(i), Av(i)), 选取目标坐标系为参考 系, 则有 :
         根据张角及成像滚转角 γi 预测目标点像素在图像中的坐标位置 (uc(i), vc(i)), 计 算如下 :
         则有 :其中 αi、 θi、 hi 分别表示下一帧应的方位角, 俯仰角, 高度 ; ROW 为实时成像行数, COL 为实时成像列数, dAu, dAv 分别表示横向和纵向角分辨率。
         (3.2) 目标点坐标精确定位
         为了得到准确的目标点坐标, 以预测得到的目标点坐标为中心构建局部搜索窗 口, 在局部搜索窗口内进行识别定位。
         确定局部搜索窗口范围时, 根据飞行姿态参数估算目标在序列图像中的大小, 然
         后根据成像器成像特点以及各种误差综合考虑后给出的列方向和行方向外扩像素, 作为图 中目标搜索区域的大小。
         目标区域在序列图像中的区域大小为 :
         Length, Width 表示目标在大地坐标下的实际长宽, ROW 为实时成像行数, COL 为实 时成像列数, θ、 h 分别为成像俯仰角高度。
         由于在实际成像过程中光电平台在测量成像姿态参数时存在一定的误差。 综合考 虑各种误差后, 对搜索区域在列方向和行方向分别进行像素外扩 biasX 和 biasZ, 那么搜索 区域的大小为 :
         T_Row = L_Row+2×biasX
         T_Col = L_Col+2×biasZ
         其中 biasX 和 biasZ 的大小根据实际成像过程中成像平台的运动极限速度来估 算, 计算公式表示为 :
         biasX = maxωx×Δt×dAu
         biasZ = maxωz×Δt×dAv
         maxωx, maxωz 分别表示飞行器在 x 轴方向和 z 轴方向的最大角速度 ; Δt 表示飞 行器在成相邻两帧图像时间差, dAu, dAv 分别表示横向和纵向角分辨率。
         (3.3) 光轴点位置更新
         通过局部识别定位的方式得到当前帧图像中准确的目标点坐标。 由于地面光轴点 位置是根据成像姿态参数推算出来的, 且成像平台在成像姿态参数测量过程中存在一定的 误差, 如果一直推算下去必然存在误差累积, 从而导致捕获失败。
         利用局部识别定位得到的当前帧图像中准确的目标点坐标更新地面光轴点位置, 消除目标点坐标估计累积误差。
         选取目标坐标系为参考系, 根据张角计算公式, 图像中目标点像素坐标位置与目 标点和地面光轴点横纵方向的张角存在的关系有 :
         根据得到的横纵向的张角 (Au(i)·, Av(i)·), 更新目标坐标系下对应的地面光轴点位 · · 置 (xo(i) , 0, zo(i) ), 具体方法如下 :
         其中 αi、 θi、 hi 分别表示下一帧应的方位角, 俯仰角, 高度 ; ROW 为实时成像行数, COL 为实时成像列数 ; dAu, dAv 分别表示横向和纵向角分辨率。
         得到地面光轴点位置后, 然后再转到对下一帧图像地面光轴点位置的预测步骤中 去, 如此递推下去就实现了序列图像中目标点坐标预测定位。
        

    关于本文
    本文标题:一种基于平台惯姿参数的序列图像目标递推识别方法.pdf
    链接地址://www.4mum.com.cn/p-5817328.html
    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    [email protected] 2017-2018 www.4mum.com.cn网站版权所有
    经营许可证编号:粤ICP备17046363号-1 
     


    收起
    展开
  • 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
  • 新加坡快乐8走势图 江西时时彩许军 湖北十一选五可以玩吗 斗地主赢话费 炒股模拟软件 河北省体育彩票官网 河南11选5分布走势图一定牛 白小姐资料一肖中特129期 足彩胜负彩过关统计 大富豪棋牌游戏官方下载 四川金7乐二维码 英超直播赛程 000009股票行情 中国体彩河北11选5 安徽11选5官方 99围棋手机版安装