• 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
    • / 19
    • 下载费用:30 金币  

    重庆时时彩官网同步: 用于姿态识别的方法和设备.pdf

    关 键 词:
    用于 姿态 识别 方法 设备
      专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    摘要
    申请专利号:

    CN201310071194.X

    申请日:

    2013.03.06

    公开号:

    CN103310188A

    公开日:

    2013.09.18

    当前法律状态:

    撤回

    有效性:

    无权

    法律详情: 发明专利申请公布后的视为撤回IPC(主分类):G06K 9/00申请公布日:20130918|||实质审查的生效IPC(主分类):G06K9/00申请日:20130306|||公开
    IPC分类号: G06K9/00; G06K9/20 主分类号: G06K9/00
    申请人: 三星电子株式会社
    发明人: 邢乘龙; 金桐秀; 卢庆植; 沈营辅; 尹硕浚; 黄元俊; 黄孝锡
    地址: 韩国京畿道水原市
    优先权: 2012.03.06 KR 10-2012-0023076
    专利代理机构: 北京铭硕知识产权代理有限公司 11286 代理人: 韩明星;罗延红
    PDF完整版下载: PDF下载
    法律状态
    申请(专利)号:

    CN201310071194.X

    授权公告号:

    ||||||

    法律状态公告日:

    2018.02.23|||2015.04.08|||2013.09.18

    法律状态类型:

    发明专利申请公布后的视为撤回|||实质审查的生效|||公开

    摘要

    一种用于姿态识别的设备和方法,用于姿态识别的方法包括:在虚拟空间中产生人体模型;基于具有人体的每个部分的角度和角速度作为状态变量的状态向量预测人体模型的下一姿态;预测关于预测姿态的深度图像;基于预测的深度图像和实际拍摄的深度图像之间的相似度识别实际拍摄的深度图像中的人的姿态,其中,基于具有角速度作为状态变量的状态向量来预测下一姿态,从而减少了将要产生的姿态样本的数量并提高了姿态识别速度。

    权利要求书

    权利要求书
    1.   一种识别姿态的方法,所述方法包括:
    在虚拟空间中产生人体模型;
    基于具有人体的每个部分的角度和角速度作为状态变量的状态向量预测人体模型的下一姿态;
    预测关于预测姿态的深度图像;
    基于预测的深度图像和实际拍摄的深度图像之间的相似度识别实际拍摄的深度图像中的人的姿态。

    2.   如权利要求1所述的方法,其中,预测人体模型的下一姿态的步骤包括:
    计算状态变量的平均值;
    基于状态变量的平均值计算状态变量的协方差;
    基于状态变量的协方差产生随机数;
    通过使用基于随机数产生的变化预测下一姿态。

    3.   如权利要求1所述的方法,其中,预测关于预测姿态的深度图像的步骤包括:
    如果人体模型采用预测姿态,则产生关于将在图像中表示的人体模型的剪影而预测的虚拟图像;
    将虚拟图像的尺寸归一化为预定尺寸;
    预测深度图像,该深度图像包括归一化的虚拟图像中的剪影内存在的每个点的深度信息。

    4.   如权利要求3所述的方法,其中,将虚拟图像的尺寸归一化为预定尺寸的步骤包括:
    以预定减小率减小虚拟图像的尺寸,
    其中,减小率是在虚拟图像中获得的人的尺寸除以期望的人的减小尺寸的值。

    5.   如权利要求1所述的方法,其中,基于相似度识别姿态的步骤包括:
    将具有基于当前时刻预测的人体模型的姿态的相似度中最高相似度的姿态选择作为最终姿态;
    基于最终姿态的关节角度识别实际拍摄的深度图像中的人的姿态。

    6.   如权利要求5所述的方法,还包括:
    计算预测的深度图像和实际拍摄的深度图像之间的相似度;
    如果计算的相似度高于先前计算的相似度,则将预测的姿态设置为参考姿态,如果计算的相似度低于先前计算的相似度,则将先前姿态设置为参考姿态;
    基于参考姿态预测下一姿态。

    7.   如权利要求6所述的方法,其中,基于参考姿态预测下一姿态的步骤包括:
    如果当前时刻关于人体预测的姿态不符合关于实际拍摄的深度图像中的人的姿态的正态分布,则基于参考姿态预测下一姿态。

    8.   一种识别姿态的设备,所述设备包括:
    建模单元,被配置为在虚拟空间中产生人体模型;
    姿态样本产生单元,被配置为基于具有人体的每个部分的角度和角速度作为状态变量的状态向量预测人体模型的下一姿态;
    图像预测单元,被配置为预测关于预测姿态的深度图像;
    姿态识别单元,被配置为基于预测的深度图像和实际拍摄的深度图像之间的相似度识别实际拍摄的深度图像中的人的姿态。

    9.   如权利要求8所述的设备,其中,姿态样本产生单元基于状态变量的平均值计算状态变量的协方差,并通过使用基于状态变量的协方差产生的随机数作为变化来预测下一姿态。

    10.   如权利要求8所述的设备,其中,图像预测单元包括:
    虚拟图像产生单元,被配置为在人体模型采用预测姿态的情况下,产生关于将在图像中表示的人体模型的剪影而预测的虚拟图像;
    归一化单元,被配置为将虚拟图像的尺寸归一化为预定尺寸;
    深度图像产生单元,被配置为预测深度图像,该深度图像包括归一化的虚拟图像中的剪影内存在的每个点的深度信息。

    11.   如权利要求10所述的设备,其中,归一化单元以预定减小率减小虚拟图像的尺寸,
    其中,减小率是在虚拟图像中获得的人的尺寸除以期望的人的减小尺寸的值。

    12.   如权利要求8所述的设备,其中,姿态识别单元将具有基于当前时刻预测的人体模型的姿态的相似度中最高相似度的姿态选择作为最终姿态,基于最终姿态的关节角度识别实际拍摄的深度图像中的人的姿态。

    13.   如权利要求12所述的设备,其中,姿态识别单元包括:
    相似度计算单元,被配置为计算预测的深度图像和实际拍摄的深度图像之间的相似度;
    参考姿态设置单元,如果计算的相似度高于先前计算的相似度,则被配置为将预测的姿态设置为参考姿态,如果计算的相似度低于先前计算的相似度,则被配置为将先前姿态设置为参考姿态。

    14.   如权利要求13所述的设备,其中,姿态样本产生单元被配置为:如果当前时刻关于人体预测的姿态不符合关于实际拍摄的深度图像中的人的姿态的正态分布,则基于参考姿态预测下一姿态。

    说明书

    说明书用于姿态识别的方法和设备
    技术领域
    本公开的实施例涉及一种用于姿态识别的方法和设备,更具体地,涉及一种能够提高姿态识别的识别速度的用于姿态识别的方法和设备。
    背景技术
    近年来,随着非接触传感器(诸如深度相机或加速度仪)的发展,人和机器设备之间的接口从接触方法转变为非接触方法。
    深度相机在目标上照射激光或红外线(IR),并基于照射的激光或IR在被目标反射之后所花费的时间(即,基于飞行时间(TOF)),计算相机和目标之间的距离(即,目标的深度信息)。通过使用深度相机,获得了包括每个像素的深度信息的三维深度图像。
    如果使用如上获得的三维深度图像,则与仅使用二维图像的情况相比,可在更精确的程度上测量人的姿态信息。
    按照以上方式获得姿态信息的方法的一个示例是概率姿态信息获取方法。概率姿态信息获取方法实现为如下。首先,通过以圆柱体的形式表示每个身体部分(头、躯干、左上臂、左前臂、右上臂、右前臂、左大腿、左小腿、右大腿和右小腿)。然后,通过从人体模型的初始姿势改变圆柱体之间的角度(即,关节角度)来产生多个姿态样本。接下来,将通过深度相机获得的深度图像与通过将各个姿态样本投影到人体而获得的投影图像相比较,从而选择具有与获得的深度图像最相似姿态的投影图像。最后,获得选择的投影图像的姿态信息。
    然而,当使用概率姿态信息获取方法时,需要产生关于多个候选姿势的投影图像,导致计算量和获得姿态信息所需的时间增加。
    发明内容
    因此,本公开的一方面在于提供一种能够减少姿态识别所花费的时间的用于姿态识别的方法和设备。
    将在以下的描述中部分地阐述本公开的另外的方面,部分地,通过描述将是清楚的,或者可通过本公开的实践而得知。
    根据本公开的一方面,一种识别姿态的方法如下??稍谛槟饪占渲胁颂迥P???苫诰哂腥颂宓拿扛霾糠值慕嵌群徒撬俣茸魑刺淞康淖刺蛄吭げ馊颂迥P偷南乱蛔颂???稍げ夤赜谠げ庾颂纳疃韧枷???苫谠げ獾纳疃韧枷窈褪导逝纳愕纳疃韧枷裰涞南嗨贫仁侗鹗导逝纳愕纳疃韧枷裰械娜说淖颂?。
    可通过执行以下操作来实现预测人体模型的下一姿态的步骤??杉扑阕刺淞康钠骄???苫谧刺淞康钠骄导扑阕刺淞康男讲???苫谧刺淞康男讲畈婊???赏ü褂没谒婊谋浠げ庀乱蛔颂?。
    可通过执行以下操作来实现预测关于预测姿态的深度图像的步骤。如果人体模型采用预测姿态,则可产生关于将在图像中表示的人体模型的剪影而预测的虚拟图像??山槟馔枷竦某叽绻橐换ざǔ叽???稍げ馍疃韧枷?,该深度图像包括归一化的虚拟图像中的剪影内存在的每个点的深度信息。
    可通过执行以下操作来实现将虚拟图像的尺寸归一化为预定尺寸的步骤??梢砸栽ざ跣÷始跣⌒槟馔枷竦某叽?。减小率可以是在虚拟图像中获得的人的尺寸除以期望的人的减小尺寸的值。
    可通过执行以下操作来实现基于相似度识别姿态的步骤??山哂谢诘鼻笆笨淘げ獾娜颂迥P偷淖颂南嗨贫戎凶罡呦嗨贫鹊淖颂≡褡魑钪兆颂???苫谧钪兆颂墓亟诮嵌仁侗鹗导逝纳愕纳疃韧枷裰械娜说淖颂?。
    可通过执行以下操作来进一步实现所述方法??杉扑阍げ獾纳疃韧枷窈褪导逝纳愕纳疃韧枷裰涞南嗨贫?。如果计算的相似度高于先前计算的相似度,则可将预测的姿态设置为参考姿态,如果计算的相似度低于先前计算的相似度,则可将先前姿态设置为参考姿态??苫诓慰甲颂げ庀乱蛔颂?。
    可通过执行以下操作来实现基于参考姿态预测下一姿态的步骤。如果当前时刻关于人体预测的姿态不符合关于实际拍摄的深度图像中的人的姿态的正态分布,则可基于参考姿态预测下一姿态。
    根据本公开的另一方面,一种识别姿态的设备包括建模单元、姿态样本产生单元、图像预测单元和姿态识别单元。建模单元可被配置为在虚拟空间中产生人体模型。姿态样本产生单元可被配置为基于具有人体的每个部分的角度和角速度作为状态变量的状态向量预测人体模型的下一姿态。图像预测单元可被配置为预测关于预测姿态的深度图像。姿态识别单元可被配置为基于预测的深度图像和实际拍摄的深度图像之间的相似度识别实际拍摄的深度图像中的人的姿态。
    姿态样本产生单元可基于状态变量的平均值计算状态变量的协方差,并通过使用基于状态变量的协方差产生的随机数作为变化来预测下一姿态。
    图像预测单元可包括虚拟图像产生单元、归一化单元和深度图像产生单元。虚拟图像产生单元可被配置为在人体模型采用预测姿态的情况下,产生关于将在图像中表示的人体模型的剪影而预测的虚拟图像。归一化单元可被配置为将虚拟图像的尺寸归一化为预定尺寸。深度图像产生单元可被配置为预测深度图像,该深度图像包括归一化的虚拟图像中的剪影内存在的每个点的深度信息。
    归一化单元可以以预定减小率减小虚拟图像的尺寸。减小率可以是在虚拟图像中获得的人的尺寸除以期望的人的减小尺寸的值。
    姿态识别单元可将具有基于当前时刻预测的人体模型的姿态的相似度中最高相似度的姿态选择作为最终姿态,并基于最终姿态的关节角度识别实际拍摄的深度图像中的人的姿态。
    姿态识别单元可包括相似度计算单元和参考姿态设置单元。相似度计算单元可被配置为计算预测的深度图像和实际拍摄的深度图像之间的相似度。参考姿态设置单元可被配置为如果计算的相似度高于先前计算的相似度,则将预测的姿态设置为参考姿态,并可被配置为如果计算的相似度低于先前计算的相似度,则将先前姿态设置为参考姿态。
    姿态样本产生单元可被配置为:如果当前时刻关于人体预测的姿态不符合关于实际拍摄的深度图像中的人的姿态的正态分布,则基于参考姿态预测下一姿态。
    如上所述,根据本公开的实施例,基于包括虚拟空间中产生的人体模型的每个部件的角度和角速度作为状态变量的状态向量来预测下一姿态,因此减少了产生的姿态样本的数量,提高了姿态识别速度。
    由于在对针对预测姿态的虚拟图像的尺寸进行归一化之后产生深度图像,因此当与不对虚拟图像进行归一化产生深度图像时相比,计算量减少并且提高了姿态识别速度。
    附图说明
    以下通过结合附图对实施例的描述,本公开的这些和/或方面将变得清楚和更容易理解,其中:
    图1是示出根据本公开实施例的姿态识别设备的配置的示图;
    图2是示出在实践中通过图像获取单元获得的深度图像的示例的示图;
    图3是示出人体的骨骼结构的层次的示图;
    图4是示出基于图3的骨骼结构表示的人体的模型的示图;
    图5是示出通过深度图像产生单元预测的深度图像的示例的示图;
    图6是示出根据本公开实施例的姿态识别方法的流程图;
    图7是示出根据本公开另一实施例的姿态识别设备的配置的示图。
    具体实施方式
    现在将详细参照本公开的实施例,实施例的示例在附图中示出,其中,相同的标号始终表示相同的元件。
    图1是示出根据本公开的实施例的姿态识别设备100的配置的示图。参照图1,姿态识别设备100可包括图像获取单元110、建模单元120、姿态样本产生单元130、图像预测单元140、姿态识别单元150和存储单元160。
    图像获取单元110包括主传感器或深度相机。图像获取单元110拍摄目标的图像以获取关于目标的深度图像。图2是示出在实践中通过图像获取单元获得的深度图像的示例的示图。根据图2中示出的深度图像,亮的部分表示图像获取单元110和目标之间的距离很近,暗的部分表示图像获取单元110和目标之间的距离很远。
    建模单元120可基于人的骨骼结构在虚拟空间中产生人体的模型。人的骨骼结构具有图3示出的层次结构。也就是说,人的骨骼结构由头、颈部、躯干、左上臂、左前臂、右上臂、右前臂、左大腿、左小腿、右大腿和右小腿构成。建模单元120可基于骨骼结构,通过将每个部分表示为圆柱形来在虚拟空间中产生人体的模型。图4是示出基于图3的骨骼结构表示的人体的模型的示图。
    姿态样本产生单元130可通过从人体模型的初始姿态改变每个圆柱体之间的角度(以下,称为关节角度)来产生多个姿态样本。
    在图4上,人体模型的姿态可表示为每个关节角度的组合,并且每个关节角度可用作用于复制人的实际姿态的值??杉偕枞颂宓哪P偷耐肪哂衳、y和z的三个自由度,而其余部分(诸如颈部、躯干、左上臂、左前臂、右上臂、右前臂、左大腿、左小腿、右大腿和右小腿)均具有滚转方向(roll direction)和倾斜方向(pitch direction)的两个自由度。在这种情况下,当前姿态xlimb可表示为包括状态变量的状态向量,如以下的表达式1所示:
    [表达式1]
    xlimb=[xhead yhead zhead φneck θneck φtorso θtorso…φleftcalf φleftcalf φrightcalf θrightcalf]
    这里,xhead表示头的x坐标,yhead表示头的y坐标,zhead表示头的z坐标。φneck和θneck分别表示颈部的滚转角度和颈部的倾斜角度。φtorso和θtorso分别表示躯干的滚转角度和躯干的倾斜角度。φleftcalf和θleftcalf分别表示左小腿的滚转角度和左小腿的倾斜角度。φrightcalf和θrightcalf分别表示右小腿的滚转角度和右小腿的倾斜角度。
    为了从当前姿态预测下一姿态,可使用马尔科夫链蒙特卡洛(MCMC)。MCMC在模拟随机变量时使用马尔科夫链的特性。马尔科夫链表示具有以单链形式链接的随机变量的模型。对于马尔科夫链,当前随机变量的值仅与恰好在当前随机变量之前的先前随机变量的值相关,而不与所述先前随机变量之前的随机变量的值相关。因此,链越长,初始随机变量的影响越弱。例如,可假设具有复杂的概率分布的随机变量。在这种情况下,将初始值赋予随机变量,基于初始值模拟随机变量值,用模拟的值代替初始值,并基于代替的初始值模拟另一概率分布值,从而使得链变得稳定。因此,除了在初始阶段具有不稳定状态的链之外,可基于具有稳定状态的链的值执行有意义的解释。
    当使用MCMC时,可调整采样方向,从而以最接近于目标值的方向执行采样。通常,使用MCMC的下一姿态如下。首先,产生具有正态分布的随机数δ。然后,如以下的表达式2,通过将该随机数与表示当前姿态的状态变量之一相加来产生变量δxlimb。
    [表达式2]
    δxlimb=[δxhead 0 0 0 … 0 0]
    然后,可通过将表达式2的变量δxlimb与表达式1的当前姿态xlimb相加来估计下一姿态xperturb。也就是说,如果将变量δxlimb与当前姿态xlimb相加,则如以下的表达式3来估计下一姿态。
    [表达式3]
    xperturb=xlimb+δxlimb
    由于通过从当前姿态将每个关节角度改变较小程度来实现下一姿态的估计,因此产生的姿态样本的数量很大。在姿态样本的数量很大的情况下,在根据每个姿态样本针对每个关节角度设置分布空间并执行投影模拟时,计算量增加。
    为了消除这样的限制,根据本公开实施例的姿态识别设备通过应用速度来改变关节角度。通过改变具有速度的关节角度,与以较小的程度顺序改变关节角度的情况相比,减少了姿态样本的数量。
    为了估计每个关节角度的速度分量,姿态样本产生单元130在形成当前姿态的状态向量时,可形成具有关于速度分量的状态变量的状态向量。具有关于增加的速度分量的状态变量的状态向量表示为如下的表达式4。
    [表达式4]
    <mrow><MSUB><MI>x</MI> <MI>limb</MI> </MSUB><MTEXT>=</MTEXT> <MTABLE><MTR><MTD><MFENCED close="" open="["><MTABLE><MTR><MTD><MSUB><MI>x</MI> <MI>head</MI> </MSUB></MTD><MTD><MSUB><MI>y</MI> <MI>head</MI> </MSUB></MTD><MTD><MSUB><MI>z</MI> <MI>head</MI> </MSUB></MTD><MTD><MSUB><MI>φ</MI> <MI>neck</MI> </MSUB></MTD><MTD><MSUB><MI>θ</MI> <MI>neck</MI> </MSUB></MTD><MTD><MSUB><MI>φ</MI> <MI>torso</MI> </MSUB></MTD><MTD><MSUB><MI>θ</MI> <MI>torso</MI> </MSUB></MTD><MTD><MO>.</MO> <MO>.</MO> <MO>.</MO> </MTD><MTD><MSUB><MI>φ</MI> <MI>leftcalf</MI> </MSUB></MTD><MTD><MSUB><MI>θ</MI> <MI>leftcalf</MI> </MSUB></MTD><MTD><MSUB><MI>φ</MI> <MI>rightcalf</MI> </MSUB></MTD><MTD><MSUB><MI>θ</MI> <MI>rightcalf</MI> </MSUB></MTD></MTR></MTABLE></MFENCED></MTD></MTR></MTABLE></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0002"><MATH><![CDATA[ <mfenced open='' close=']'><MTABLE><MTR><MTD><MSUB><MOVER><MI>x</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>head</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>y</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>head</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>z</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>head</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>φ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>neck</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>neck</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>φ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>torso</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>torso</MI> </MSUB></MTD><MTD><MO>.</MO> <MO>.</MO> <MO>.</MO> </MTD><MTD><MROW><MSUB><MOVER><MI>φ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>leftcalf</MI> </MSUB></MROW></MTD><MTD><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>leftcalf</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>φ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB></MTD><MTD><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB></MTD></MTR></MTABLE></MFENCED>]]&gt;</MATH></MATHS> <BR>与表达式1显示的状态向量不同,表达式4中显示的状态向量增加了关于头的速度分量和以及关于其余部分的角速度分量和基于增加的分量,可估计下一姿态的速度分量。 <BR>在具有表达式4所示的状态分量的状态下,姿态样本产生单元130可形成包括关于各个状态变量的协方差值的协方差函数。协方差函数可表示为如下的表达式5。 <BR>[表达式5] <BR><MATHS num="0003"><MATH><![CDATA[ <mrow><MSUB><MI>P</MI> <MI>limb</MI> </MSUB><MO>=</MO> <MFENCED close="" open="["><MTABLE><MTR><MTD><MSUB><MI>P</MI> <MROW><MSUB><MI>x</MI> <MI>head</MI> </MSUB><MSUB><MI>x</MI> <MI>head</MI> </MSUB></MROW></MSUB></MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MI>x</MI> <MI>head</MI> </MSUB><MSUB><MI>y</MI> <MI>head</MI> </MSUB></MROW></MSUB></MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MI>x</MI> <MI>head</MI> </MSUB><MSUB><MI>z</MI> <MI>head</MI> </MSUB></MROW></MSUB></MTD><MTD><MO>.</MO> <MO>.</MO> <MO>.</MO> </MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MI>x</MI> <MI>head</MI> </MSUB><MSUB><MOVER><MI>φ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB></MROW></MSUB></MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MI>x</MI> <MI>head</MI> </MSUB><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB></MROW></MSUB></MTD></MTR></MTABLE></MFENCED></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0004"><MATH><![CDATA[ <mfenced open='' close=''><MTABLE><MTR><MTD><MO>.</MO> </MTD><MTD><MO>.</MO> </MTD></MTR><MTR><MTD><MO>.</MO> </MTD><MTD><MO>.</MO> </MTD></MTR><MTR><MTD><MO>.</MO> </MTD><MTD><MO>.</MO> </MTD></MTR></MTABLE></MFENCED>]]&gt;</MATH></MATHS> <BR><MATHS num="0005"><MATH><![CDATA[ <mfenced open='' close=']'><MTABLE><MTR><MTD><MSUB><MI>P</MI> <MROW><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB><MSUB><MI>x</MI> <MI>head</MI> </MSUB></MROW></MSUB></MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB><MSUB><MI>y</MI> <MI>head</MI> </MSUB></MROW></MSUB></MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB><MSUB><MI>z</MI> <MI>head</MI> </MSUB></MROW></MSUB></MTD><MTD><MO>.</MO> <MO>.</MO> <MO>.</MO> </MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB><MSUB><MOVER><MI>φ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB></MROW></MSUB></MTD><MTD><MSUB><MI>P</MI> <MROW><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB><MSUB><MOVER><MI>θ</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>rightcalf</MI> </MSUB></MROW></MSUB></MTD></MTR></MTABLE></MFENCED>]]&gt;</MATH></MATHS> <BR>在表达式5中,表示状态变量xhead和状态变量yhead的协方差,表示状态变量xhead和状态变量zhead的协方差。 <BR>当首次预测姿态时,关于先前姿态的数据不存在,因此可将协方差值设置为随机值。一旦开始姿态估计,姿态样本产生单元130可计算关于状态变量的协方差值。 <BR>如果计算了协方差值,则姿态样本产生单元130可通过使用计算的协方差值来产生状态变量的变化。如以下的表达式6设置获得变化的模型。 <BR>[表达式6] <BR><MATHS num="0006"><MATH><![CDATA[ <mrow><MSUB><MI>x</MI> <MROW><MI>k</MI> <MO>+</MO> <MN>1</MN> </MROW></MSUB><MO>=</MO> <MSUB><MI>x</MI> <MI>k</MI> </MSUB><MO>+</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;CenterDot;</MO> </MOVER><MI>k</MI> </MSUB><MI>dt</MI> </MROW>]]&gt;</MATH></MATHS> <BR>在表达式6,dt表示将要估计的时间差,表示xk的角速度。如果dt很小并且保证角度的线性,则角速度的改变成为变化。在表达式6中,当假设xk表示在前一阶段估计的位置的状态值且表示xk的角速度的状态值时,在下一姿态具有xk+1的位置状态值的概率最高。因此,如果在xk+1产生随机变量,则可产生与人的实际状态最相似状态的姿态样本。 <BR>如上所述,可从协方差Pn获得变化。协方差Pn表示偏差的乘积,偏差表示变量的值减去状态变量的平均值。因此,为了计算协方差,需要计算平均值。在递归法中通过以下的表达式7获得平均值。 <BR>[表达式7] <BR><MATHS num="0007"><MATH><![CDATA[ <mrow><MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> </MSUB><MO>=</MO> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>n</MI> </MSUB><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW><MO>+</MO> <MROW><MO>(</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MROW><MI>n</MI> <MO>-</MO> <MN>1</MN> </MROW></MSUB><MO>&amp;CenterDot;</MO> <MROW><MO>(</MO> <MI>n</MI> <MO>-</MO> <MN>1</MN> <MO>)</MO> </MROW><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>在表达式7中,通过MCMC产生总共n个样本,通过使用总共n?1个样本的平均值获得n个样本的平均值。 <BR>如果通过表达式7获得平均值,则计算协方差??扇缫韵碌谋泶锸?按照递归法计算协方差。 <BR>[表达式8] <BR><MATHS num="0008"><MATH><![CDATA[ <mrow><MSUB><MI>P</MI> <MI>n</MI> </MSUB><MO>=</MO> <MFRAC><MROW><MUNDEROVER><MI>Σ</MI> <MN>1</MN> <MI>n</MI> </MUNDEROVER><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>k</MI> </MSUB><MO>-</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> </MSUB><MO>)</MO> </MROW><MSUP><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>k</MI> </MSUB><MO>-</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> </MSUB><MO>)</MO> </MROW><MI>T</MI> </MSUP></MROW><MI>n</MI> </MFRAC><MO>=</MO> <MFRAC><MROW><MUNDEROVER><MI>Σ</MI> <MN>1</MN> <MI>n</MI> </MUNDEROVER><MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>k</MI> </MSUB><MSUBSUP><MI>x</MI> <MI>k</MI> <MI>T</MI> </MSUBSUP><MO>-</MO> <MSUB><MI>x</MI> <MI>k</MI> </MSUB><MSUBSUP><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> <MI>T</MI> </MSUBSUP><MO>-</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> </MSUB><MSUBSUP><MI>x</MI> <MI>k</MI> <MI>T</MI> </MSUBSUP><MO>+</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> </MSUB><MSUBSUP><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> <MI>T</MI> </MSUBSUP><MO>)</MO> </MROW></MROW><MI>n</MI> </MFRAC></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0009"><MATH><![CDATA[ <mrow><MFRAC><MROW><MUNDEROVER><MI>Σ</MI> <MN>1</MN> <MI>n</MI> </MUNDEROVER><MSUB><MI>x</MI> <MI>k</MI> </MSUB><MSUBSUP><MI>x</MI> <MI>k</MI> <MI>T</MI> </MSUBSUP></MROW><MI>n</MI> </MFRAC><MO>=</MO> <MSUB><MI>V</MI> <MI>n</MI> </MSUB><MO>=</MO> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>n</MI> </MSUB><MSUBSUP><MI>x</MI> <MI>n</MI> <MI>T</MI> </MSUBSUP><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW><MO>+</MO> <MROW><MO>(</MO> <MSUB><MI>V</MI> <MROW><MI>n</MI> <MO>-</MO> <MN>1</MN> </MROW></MSUB><MO>&amp;CenterDot;</MO> <MROW><MO>(</MO> <MI>n</MI> <MO>-</MO> <MN>1</MN> <MO>)</MO> </MROW><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0010"><MATH><![CDATA[ <mrow><MSUB><MI>P</MI> <MI>n</MI> </MSUB><MO>=</MO> <MSUB><MI>V</MI> <MI>n</MI> </MSUB><MO>-</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> </MSUB><MSUBSUP><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MI>n</MI> <MI>T</MI> </MSUBSUP><MO>=</MO> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>n</MI> </MSUB><MSUBSUP><MI>x</MI> <MI>n</MI> <MI>T</MI> </MSUBSUP><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW><MO>+</MO> <MROW><MO>(</MO> <MSUB><MI>V</MI> <MROW><MI>n</MI> <MO>-</MO> <MN>1</MN> </MROW></MSUB><MO>&amp;CenterDot;</MO> <MROW><MO>(</MO> <MI>n</MI> <MO>-</MO> <MN>1</MN> <MO>)</MO> </MROW><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR><MATHS num="0011"><MATH><![CDATA[ <mrow><MO>-</MO> <MROW><MO>(</MO> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>n</MI> </MSUB><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW><MO>+</MO> <MROW><MO>(</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MROW><MI>n</MI> <MO>-</MO> <MN>1</MN> </MROW></MSUB><MO>&amp;CenterDot;</MO> <MROW><MO>(</MO> <MI>n</MI> <MO>-</MO> <MN>1</MN> <MO>)</MO> </MROW><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW><MSUP><MROW><MO>(</MO> <MROW><MO>(</MO> <MSUB><MI>x</MI> <MI>n</MI> </MSUB><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW><MO>+</MO> <MROW><MO>(</MO> <MSUB><MOVER><MI>x</MI> <MO>&amp;OverBar;</MO> </MOVER><MROW><MI>n</MI> <MO>-</MO> <MN>1</MN> </MROW></MSUB><MO>&amp;CenterDot;</MO> <MROW><MO>(</MO> <MI>n</MI> <MO>-</MO> <MN>1</MN> <MO>)</MO> </MROW><MO>/</MO> <MI>n</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW><MI>T</MI> </MSUP></MROW>]]&gt;</MATH></MATHS> <BR>以这种方式,如果计算了状态变量的平均值和协方差值,则计算的协方差值用作在产生用于产生下一阶段的变化的随机数时的正态分布的大小。因此,如果从该阶段开始估计下一姿态,则可减少姿态样本的数量。由于MCMC花费大量时间来达到稳定状态,因此本公开以卡尔曼滤波器的形式提供了满足最优初始条件的状态。通过这样,显著减少了采样的数量。 <BR>图像预测单元140可预测关于预测的姿态的深度图像。为此,图像预测单元140包括虚拟图像产生单元141、归一化单元142和深度图像产生单元143。 <BR>虚拟图像产生单元141可产生采用了预定姿态的人体模型的虚拟图像。虚拟图像表示当图像获取单元110拍摄采用了预定姿态的人体模型时,将在关于拍摄的图像中表示的人体模型的剪影而预测的图像。在这种情况下,如果剪影具有大尺寸,则当计算关于剪影中的每个点的深度信息时计算量增加。因此,为了减少计算,需要减小虚拟图像的尺寸。然而,如果过度地减小了虚拟图像的尺寸,则剪影的尺寸同样被减小,从而造成难以分辨剪影的每个部分且降低了姿态识别性能。因此,当减小虚拟图像的尺寸时,需要考虑计算量和姿态识别性能两者来减小虚拟图像的尺寸。 <BR>归一化单元142可对虚拟图像的尺寸进行归一化。在这种情况下,归一化指的是将虚拟图像的尺寸变换为预定尺寸。例如,归一化单元142可按照预定减小率来减小虚拟图像的尺寸??扇缫韵碌谋泶锸?来确定减小率。 <BR>[表达式9] <BR><MATHS num="0012"><MATH><![CDATA[ <mrow><MSUB><MI>R</MI> <MI>norm</MI> </MSUB><MO>=</MO> <MFRAC><MSUB><MI>l</MI> <MROW><MI>size</MI> <MO>_</MO> <MI>of</MI> <MO>_</MO> <MI>image</MI> </MROW></MSUB><MSUB><MI>l</MI> <MI>recommended</MI> </MSUB></MFRAC></MROW>]]&gt;</MATH></MATHS> <BR>在表达式9中,Rnorm表示减小率。lsize_of_image表示从虚拟图像获得的人的尺寸,lrecommended表示期望的减小的尺寸。 <BR>按照通过表达式9确定的减小率来减小虚拟图像的方法如下。 <BR>[表达式10] <BR><MATHS num="0013"><MATH><![CDATA[ <mrow><MSUB><MI>x</MI> <MI>new</MI> </MSUB><MO>=</MO> <MFRAC><MSUB><MI>x</MI> <MI>image</MI> </MSUB><MSUB><MI>R</MI> <MI>norm</MI> </MSUB></MFRAC><MO>,</MO> </MROW>]]&gt;</MATH></MATHS><MATHS num="0014"><MATH><![CDATA[ <mrow> <MSUB><MI>y</MI> <MI>new</MI> </MSUB><MO>=</MO> <MFRAC><MSUB><MI>y</MI> <MI>image</MI> </MSUB><MSUB><MI>R</MI> <MI>norm</MI> </MSUB></MFRAC></MROW>]]&gt;</MATH></MATHS> <BR>在表达式10中,ximage表示虚拟图像在x轴上的尺寸(即,虚拟图像的宽度尺寸),xnew表示减小后的虚拟图像在x轴上的尺寸。yimage表示虚拟图像在y轴上的尺寸(即,虚拟图像的长度尺寸),ynew表示减小后的虚拟图像在y轴上的尺寸。由于通过表达式10对图像进行归一化,因此当与不经过归一化对虚拟图像执行计算的情况相比时,计算量减少了大约 <BR>深度图像产生单元143可产生对应于归一化的虚拟图像的深度图像。深度图像产生单元143所产生的深度图像可包括关于存在于归一化的虚拟图像的剪影内的每个点的深度信息。图5示出了由深度图像产生单元143预测的深度图像的示例。 <BR>姿态识别单元150可基于深度图像产生单元143产生的深度图像和图像获取单元110拍摄的深度图像之间的相似度来识别图像获取单元110实际拍摄的深度图像中的人的姿态。为此,姿态识别单元150可包括相似度计算单元151、参考姿态设置单元152和最终姿态选择单元153。 <BR>相似度计算单元151可计算深度图像产生单元143产生的深度图像和图像获取单元110拍摄的深度图像之间的相似度??赏ü韵虏街枥椿竦孟嗨贫龋杭扑懔礁錾疃韧枷竦南嘤ξ恢玫牧礁鱿袼刂涞纳疃刃畔⒅?,通过对计算的差求和来获得结果值,并替换反对数函数中的结果值??扇缫韵碌谋泶锸?1计算相似度。 <BR>[表达式11] <BR><MATHS num="0015"><MATH><![CDATA[ <mrow><MSUB><MI>W</MI> <MSUB><MI>img</MI> <MI>diff</MI> </MSUB></MSUB><MO>=</MO> <MI>exp</MI> <MROW><MO>(</MO> <MO>-</MO> <MI>C</MI> <MUNDEROVER><MI>Σ</MI> <MROW><MI>i</MI> <MO>=</MO> <MN>1</MN> <MO>,</MO> <MI>j</MI> <MO>=</MO> <MN>1</MN> </MROW><MROW><MI>m</MI> <MO>,</MO> <MI>n</MI> </MROW></MUNDEROVER><MROW><MO>(</MO> <MSUB><MI>d</MI> <MI>measured</MI> </MSUB><MROW><MO>(</MO> <MI>i</MI> <MO>,</MO> <MI>j</MI> <MO>)</MO> </MROW><MO>-</MO> <MSUB><MI>d</MI> <MI>projected</MI> </MSUB><MROW><MO>(</MO> <MI>i</MI> <MO>,</MO> <MI>j</MI> <MO>)</MO> </MROW><MO>)</MO> </MROW><MO>)</MO> </MROW></MROW>]]&gt;</MATH></MATHS> <BR>在表达式11中,C是通过实验确定的常数。dmeasured(i,j)表示位于图像获取单元110获取的深度图像的第i行第j列的像素的深度信息。dprojected(i,j)表示位于深度图像产生单元143产生的深度图像中的第i行第j列的像素的深度信息。通过将相似度表示为结果值的反对数函数,两个深度图像之间的相似度越高,表示的相似度的值越高。 <BR>根据将相似度计算单元151计算的相似度与先前计算的相似度进行比较的结果,参考姿态设置单元142可将已经加入了变化的姿态设置为参考姿态。具体地,如果相似度计算单元151计算的相似度大于先前计算的相似度,则参考姿态设置单元152可将已经加入了变化的姿态设置为参考姿态。也就是说,通过将变化加入当前姿态来预测下一姿态,针对预测的姿态产生深度图像,计算实际测量的深度图像和产生的深度图像之间的相似度,并且如果计算的相似度高于先前计算的相似度,则在与基于先前设置的姿态产生的深度图像相比,基于预测姿态的深度图像更相似于通过图像获取单元110拍摄的人的姿态。因此,如果已经加入了变化的姿态被设置为参考姿态且基于参考姿态产生了新姿态样本,则以更快的方式获得了与实际测量的人的实际姿态相似的姿态,从而减少了将要产生的姿态样本的数量。 <BR>如果由相似度计算单元151计算的相似度小于先前计算的相似度,则参考姿态设置单元152可将先前姿态设置为参考姿态。 <BR>最终姿态选择单元153可确定当前时刻已经预测的姿态样本是否是以相对于图像获取单元110拍摄的姿态的正态分布的形式被提供。 <BR>如果确定当前时刻预测的姿态样本不是以正态分布的形式被提供,则最终姿态选择单元153将确定结果通知姿态样本产生单元130。因此,姿态样本产生单元130可基于参考姿态预测下一姿态。 <BR>如果确定当前时刻预测的姿态样本是以正态分布的形式被提供,则最终姿态选择单元153将具有基于当前时刻产生的样本的相似度中最高相似度的姿态样本选择作为最终姿态。在选择了最终姿态之后,基于最终姿态的每个部分的关节角度来识别实际中拍摄的深度图像中的人的姿态。 <BR>存储单元160可存储控制姿态识别设备100的操作所需的算法或数据并存储在姿态识别过程中产生的数据。例如,存储单元160可存储通过图像获取单元110获得的深度图像、姿态样本产生单元130产生的姿态样本以及相似度计算单元151计算的相似度。这样的存储单元160可被实现为非易失性存储器装置(诸如只读存储器(ROM)、随机存取存储器(RAM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)和闪存)、易失性存储器装置(诸如随机存取存储器(RAM))、硬盘或光盘。然而,本公开的存储单元160不限于此,并可以以本领域公知的各种形式被实现。 <BR>图6是示出根据本公开实施例的姿态识别方法的流程图。 <BR>通过图像获取单元110获取关于人的深度图像(600)。 <BR>在虚拟空间中基于人体的骨骼结构产生人体模型(610)。 <BR>形成具有人体模型的每个部分的角度和角速度作为状态变量的状态向量,并基于状态向量预测人体模型的下一姿态(620)。操作620可包括计算状态变量的平均值和协方差的处理、通过使用计算的协方差产生随机数的处理以及通过使用基于随机数产生的变化预测下一姿态的处理。 <BR>如果如上预测人体模型的下一姿态,则针对预测姿态预测深度图像(630)。操作630可包括针对预测姿态产生虚拟图像的处理、以预定比率对虚拟图像的尺寸进行归一化的处理以及针对具有归一化尺寸的虚拟图像产生深度图像的处理。虚拟图像表示关于在人体模型采用预测姿态时将在图像中表示的人体模型的剪影而预测的图像。 <BR>如果针对预测姿态预测深度图像,则可基于预测的深度图像和图像获取单元110实际拍摄的深度图像之间的相似度来识别实际拍摄的深度图像中的人的姿态。 <BR>为此,首先,可计算预测的深度图像和实际拍摄的深度图像之间的相似度(640)。然后,确定计算的相似度是否高于先前计算的相似度(650)。 <BR>如果确定计算的相似度高于先前计算的相似度(650的是),则可将预测姿态设置为参考姿态(660)。如果确定计算的相似度低于先前计算的相似度(650的否),则将人体模型的先前姿态设置为参考姿态(665)。 <BR>在如上设置了参考姿态之后,确定当前时刻已经产生的姿态样本是否符合关于实际拍摄的深度图像的人的姿态的正态分布(670)。 <BR>如果确定当前时刻产生的姿态样本不符合正态分布(670的否),则控制??榉祷氐讲僮?20到650,在操作620到650,基于参考姿态预测下一姿态,针对预测姿态预测深度图像,并且比较产生的深度图像和实际拍摄的深度图像之间的相似度。如果确定当前时刻产生的姿态样本符合正态分布(670的是),则具有基于当前时刻产生的姿态样本的相似度中最高相似度的姿态样本被选择作为最终姿态(680)。在选择了最终姿态之后,基于最终姿态的每个部分的关节角度来识别实际拍摄的深度图像的人的姿态(690)。 <BR>虽然参照图6描述的姿态识别方法已经描述了获得人的深度图像的操作600在姿态识别的开始时被执行,但本公开不限于此。也就是说,可在操作610和操作640之间执行操作600。 <BR>已经如上描述了本公开的实施例的姿态识别设备和姿态识别方法。 <BR>图7是根据本公开另一方面的姿态识别设备的配置的示图。 <BR>参照图7,姿态识别设备200可包括图像获取单元210、建模单元220、姿态样本产生单元230、图像预测单元240、姿态识别单元250和存储单元260。由于图像获取单元210、建模单元220、姿态样本产生单元230、姿态识别单元250和存储单元260与图1中示出的图像获取单元110、建模单元120、姿态样本产生单元130、姿态识别单元150和存储单元160相同,因此为了避免重复省略对它们的描述。 <BR>除了图1的姿态识别设备100的图像预测单元140包括虚拟图像产生单元141、归一化单元142和深度图像产生单元143而图7的姿态识别设备200的图像预测单元240仅包括虚拟图像产生单元241和深度图像产生单元243之外,图7中示出的姿态识别设备200的配置与图1的姿态识别设备100的配置相同。从图7所示的图像预测单元240省略了归一化单元,但是姿态样本产生单元230可基于具有每个部分的角度和角速度作为状态变量的状态向量来预测人体模型的下一姿态,因此减少了姿态样本的数量并提高了姿态识别速度。 <BR>除了应用了姿态识别设备100的姿态识别方法在操作630包括针对预测姿态产生虚拟图像的处理、以预定比率对虚拟图像进行归一化的处理和针对具有归一化的尺寸的虚拟图像产生深度图像的处理,而应用了姿态识别设备200的姿态识别方法在操作630仅包括针对预测姿态产生虚拟图像的处理和针对虚拟图像产生深度图像的处理之外,应用了姿态识别设备200的姿态识别方法与图6所示的控制流程相同。 <BR>已经示出和描述了本公开的一些实施例。对于以上描述的实施例,构成根据本公开实施例的姿态识别设备100和根据本公开另一实施例的姿态识别设备200的某些部件可实施为“??椤钡睦嘈??!澳?椤笨杀硎救砑榧蛴布榧?,诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC),并进行特定功能。然而,??椴幌抻谌砑蛴布?。??榭杀还钩晌诳杀谎爸返拇娲⒔橹手刑峁?,或者可被构成为运行一个或多个处理器。 <BR>??榈氖纠砂嫦蚨韵笕砑榧?、类组件和任务组件、处理、函数、属性、过程、子程序、程序代码段、驱动器、固件、微代码、电路、数据、数据库、数据结构、表、阵列和变量。组件和??樘峁┑墓δ芎喜⑽俚淖榧湍??,或者划分为附加的组件和???。另外,这样的组件和??榭稍诵凶爸弥械囊桓龌蚨喔鯟PU。 <BR>本公开还可实施为包括用于控制上述实施例的至少一个组件的计算机可读代码/命令的计算机可读介质。介质是能够存储和/或发送计算机可读代码的任何介质。 <BR>计算机可读代码可记录在介质上以及通过互联网发送,介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD?ROM、磁带、软盘、光数据存储装置以及诸如通过互联网的数据传输的载波。介质可以是信号,诸如组合信号或比特流。介质也可以分布于联网的计算机系统,从而以分布的形式存储和执行计算机可读代码。另外,将被处理的组件的示例可包括处理器或计算机处理。将被处理的元件可分布和/或包括在一个装置中。 <BR>虽然已经示出和描述了本公开的一些实施例,但是本领域的技术人员应理解,在不脱离本公开的原理和精神的情况下,可对这些实施例进行各种改变,本公开的范围在权利要求及其等同物中限定。</p> </div> </div> </div> </div> <div class="mt10 works-comment"> <div class="works-comment-hd"> <span class="font-tahoma">关于本文</div> <div style="line-height: 25px; padding: 10px 20px;"> 本文标题:用于姿态识别的方法和设备.pdf<br /> 链接地址:<a href="//www.4mum.com.cn/p-5775692.html">//www.4mum.com.cn/p-5775692.html</a><br /> </div> </div> </div> <div class="boxright" id="boxright" > <div class="fr detail-aside" id="Div11" style="width:270px;"> <div class="box hot-keywords mt10" style="overflow: hidden;width: 268px; border:solid 1px #dedede;" id="relatebox0"> <div class="boxHd" > <div class="fl nt-ico mr5 ml13 ico" style="margin-top: 3px;"> </div> <h2 class="fl font-normal font16 font-yahei" style="font-size: 16px; font-weight: 100; margin-left: 0px; margin-top: 3px; font-family: 微软雅黑"> 当前资源信息</h2> </div> <div id="Div2" class="author-works-list bgF" style="overflow: hidden; padding:10px 10px; "> <table><tr><td> <dt class="author-avatar-box fl"><a class="author-avatar" title="bo****18" href="u-6973.html"> <img src="//www.4mum.com.cn/FlexPaper/ZoomImage/UploadPhoto/tx_20181218222104.png" style="border-radius:50px 50px; " onerror="this.src='images/noavatar_small.gif'" alt="bo****18"></a> </dt></td><td> <div class="author-name fl w100 ellipsis"> <a href="u-6973.html" target="_blank"> bo****18</a><img style="height:15px; width:20px; overflow:hidden; margin-right:10px;background:url(images/bg_index_ie6_781d95ab.png) no-repeat -185px 4px;display:none" src="images/s.gif" alt="企业认证" title="企业认证"/></div> <div class="author-level-bar"> <span class="mr5 author-grade author-grade5" title="会员等级"></span> </div></td></tr></table> <div class="fl" style="width: 240px;"> <p class="kh_cpZl"> 编号: cj20190318104056804332</p> <p class="kh_cpZl"> 类型: 共享资源</p> <p class="kh_cpZl"> 格式: PDF</p> <p class="kh_cpZl"> 大?。?3.17MB</p> <p class="kh_cpZl"> 上传时间: 2019-03-18</p> </div> </div> </div> <div class="box hot-keywords mt10" style="overflow: hidden;width: 268px; border:solid 1px #dedede;" id="relatebox"> <div class="boxHd" style="padding-bottom: 0px;"> <div class="fl keywords-ico mr5 ml13 ico"> </div> <h2 class="fl font-normal font16 font-yahei" style="font-size: 16px; font-weight: 100; margin-left: 0px; margin-top: 3px; font-family: 微软雅黑"> 相关资源</h2> </div> <div id="author-works-list" class="author-works-list bgF"> <li class="vprdn"> <img alt="智能枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326879.html" title="智能枪支管理系统.pdf">智能枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="用于弹药储运监测与智能管理的方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326820.html" title="用于弹药储运监测与智能管理的方法.pdf">用于弹药储运监测与智能管理的方法.pdf</a> </li> <li class="vprdn"> <img alt="一种具有指静脉识别功能的枪支及枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326812.html" title="一种具有指静脉识别功能的枪支及枪支管理系统.pdf">一种具有指静脉识别功能的枪支及枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="一种具有指静脉识别功能的枪支及枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326802.html" title="一种具有指静脉识别功能的枪支及枪支管理系统.pdf">一种具有指静脉识别功能的枪支及枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="智能枪支管理系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326456.html" title="智能枪支管理系统.pdf">智能枪支管理系统.pdf</a> </li> <li class="vprdn"> <img alt="一种基于RFID的枪支位置判定系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326443.html" title="一种基于RFID的枪支位置判定系统.pdf">一种基于RFID的枪支位置判定系统.pdf</a> </li> <li class="vprdn"> <img alt="信用卡套现识别方法和装置.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-7326441.html" title="信用卡套现识别方法和装置.pdf">信用卡套现识别方法和装置.pdf</a> </li> <li class="vprdn"> <img alt="用于控制生产过程的系统和方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421312.html" title="用于控制生产过程的系统和方法.pdf">用于控制生产过程的系统和方法.pdf</a> </li> <li class="vprdn"> <img alt="一种处理视频的方法及其系统.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421251.html" title="一种处理视频的方法及其系统.pdf">一种处理视频的方法及其系统.pdf</a> </li> <li class="vprdn"> <img alt="基于脑电信号特征的影片剪辑筛选辅助仪及实现方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421139.html" title="基于脑电信号特征的影片剪辑筛选辅助仪及实现方法.pdf">基于脑电信号特征的影片剪辑筛选辅助仪及实现方法.pdf</a> </li> <li class="vprdn"> <img alt="基于动态内插技术的通用化测控信道模拟方法.pdf" class="pdf" src="Images/s.gif" /><a target="_parent" href="//www.4mum.com.cn/p-6421123.html" title="基于动态内插技术的通用化测控信道模拟方法.pdf">基于动态内插技术的通用化测控信道模拟方法.pdf</a> </li></div> </div> <div class="box hot-keywords mt10" id="box3" style="overflow: hidden;width: 268px; border:solid 1px #dedede;"> <div class="boxHd" style="border: none;padding-bottom: 0px;"> <div class="fl keywords-ico mr5 ml13 ico"> </div> <h2 class="fl font-normal font16 font-yahei" style="font-size: 16px; font-weight: 100; margin-left: 0px; margin-top: 3px; font-family: 微软雅黑"> 相关搜索</h2> </div> <div class="hot-keywords-list"> <a target="_blank" href="search.html?p=0&q=%e7%94%a8%e4%ba%8e" class="tag-item ico" title="用于" hidefocus="true"><span class="ico"><em> 用于</em></span></a> <a target="_blank" href="search.html?p=0&q=%e5%a7%bf%e6%80%81" class="tag-item ico" title="姿态" hidefocus="true"><span class="ico"><em> 姿态</em></span></a> <a target="_blank" href="search.html?p=0&q=%e8%af%86%e5%88%ab" class="tag-item ico" title="识别" hidefocus="true"><span class="ico"><em> 识别</em></span></a> <a target="_blank" href="search.html?p=0&q=%e6%96%b9%e6%b3%95" class="tag-item ico" title="方法" hidefocus="true"><span class="ico"><em> 方法</em></span></a> <a target="_blank" href="search.html?p=0&q=%e8%ae%be%e5%a4%87" class="tag-item ico" title="设备" hidefocus="true"><span class="ico"><em> 设备</em></span></a> <input name="ctl00$Content$hiddenCategoryID" type="hidden" id="Content_hiddenCategoryID" value="122" /> </div> </div> </div> </div> <!--end boxright--> <!--end layout01--> </div> <!--end mainpart--> </div> <div class="aspNetHidden"><input type="hidden" name="__VIEWSTATEGENERATOR" id="__VIEWSTATEGENERATOR" value="541A68AF" /></div></form> <div style="display: none" id="Div3"> </div> <div id="jubao" class="jubao" style="display: none;"> <div class="jubaoTitle"> 举报类型</div> <ul class="vprdn"> <li class="vprdn"> <input type="radio" id="jubaoSel12" name="jubaoSel12" value="12" />&nbsp;&nbsp; <label for="jubaoSel12">广告或垃圾信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel13" name="jubaoSel13" value="13" />&nbsp;&nbsp; <label for="jubaoSel13">色情、淫秽、低俗信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel14" name="jubaoSel14" value="14" />&nbsp;&nbsp; <label for="jubaoSel14">反政府、反人类、反社会等反动信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel15" name="jubaoSel15" value="15" />&nbsp;&nbsp; <label for="jubaoSel15">散布赌博、暴力、凶杀、恐怖或者教唆犯罪等信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel16" name="jubaoSel16" value="16" />&nbsp;&nbsp; <label for="jubaoSel16">侮辱、诽谤等人身攻击信息</label> </li> <li class="vprdn"> <input type="radio" id="jubaoSel17" name="jubaoSel17" value="17" />&nbsp;&nbsp; <label for="jubaoSel17">散布谣言、扰乱社会秩序,破坏社会稳定等信息</label> </li> <li style="text-align: center; height: 50px; margin-top: 10px;"> <input type="hidden" id="hidTypeID" /> <input type="button" onclick="saveJuBao()" value="提 交" />&nbsp;&nbsp;&nbsp;&nbsp;<input type="button" onclick="$('#jubao').hide();" value="取 消" /></li> </ul> </div> <div id="jubaoResponse" class="jubao" style="display: none;"> <div class="jubaoTitle"> 提示</div> <ul class="vprdn"> <li class="vprdn"> <h4 style="text-align: center; color: rgb(83, 136, 35);"> </h4> </li> <li style="text-align: center; height: 50px; margin-top: 10px;"> <input type="button" onclick="$('#jubaoResponse').hide();" value="关 闭" /> </ul> </div></div> <div class="tempdiv" style="display:none;line-height:0px;height:0px; overflow:hidden;"> </div> <!-- JiaThis Button END --> <span id="LabelScript"></span> </div> </div> <!--foot--><div class="bg_100 foot_nav_bg" style=" min-width:1200px;"> <div class="foot_nav"> <a href="//www.4mum.com.cn/h-33.html" target="_blank" rel="nofollow">关于我们</a> - <a href="//www.4mum.com.cn/h-34.html" target="_blank" rel="nofollow">网站声明</a> - <a href="//www.4mum.com.cn/h-35.html" target="_blank" rel="nofollow"> 网站地图</a> - <a href="//www.4mum.com.cn/sitemap.html" target="_blank" rel="nofollow"> 资源地图</a> - <a href="//www.4mum.com.cn/friend.aspx" target="_blank" rel="nofollow">友情链接</a> - <a rel="nofollow">网站客服</a> - <a href="//www.4mum.com.cn/h-93.html" target="_blank" rel="nofollow">联系我们</a> </div></div><div class="bg_100 siteInner_bg" style=" min-width:1200px;"> <div class="siteInner"> <p style="text-align: center; line-height: 1.75em;"><span style="font-size: 14px;"><span style="font-size: 14px; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &#39;Times New Roman&#39;; line-height: 20px; text-align: center;">copyright@ 2017-2018 www.4mum.com.cn网站版权所有</span><br style="color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &#39;Times New Roman&#39;; font-size: 12px; line-height: 20px; text-align: center; white-space: normal; "/><span style="font-size: 14px; color: rgb(102, 102, 102); font-family: 微软雅黑, Arial, &#39;Times New Roman&#39;; line-height: 20px; text-align: center;">经营许可证编号:粤ICP备17046363号-1&nbsp;</span></span> &nbsp;</p><p><br/></p> </div></div><!--foot end--> <!-- 代码部分begin --><div class="QQ_S" style="height: 172px;position:fixed;right: 0px;bottom: 20px; top:auto;"> <div class="Q_top" onclick="HideFoot()"> <span class="signi"></span>收起</div> <div class="Q_botm"> <div class="Q_pic"> <div class="Q_pic_hide"> <a target="_blank" title="在线客服" rel="nofollow"><span class="hide_pic"></span>在线客服</a> </div> </div> <div class="Q_anser"> <div class="Q_anser_hide"><a target="_blank" title="意见反馈"> <span class="hide_pic1"></span>意见反馈 </a> </div> </div> <div class="Q_sign"> <div class="Q_sign_hide" onclick="backToTop();"><a href="javascript:void(0)" title="返回顶部"><span class="hide_pic2"></span>返回顶部 </a></div> </div> </div></div><div class="QQ_S1"> <div class="Q_top1" onclick="ShowFoot()"> <span class="signj"></span>展开</div> <div class="Q_botm1"> <div class="Q_pic1"> <div class="Q_pic1_hide"> <a href="//www.4mum.com.cn/" title="重庆时时彩单双窍门">重庆时时彩单双窍门</a></div> </div> <div class="Q_sign1"> <div class="Q_sign1_hide" onclick="backToTop();"><a href="javascript:void(0)">返回顶部</a></div> </div> </div></div> <!-- 代码部分end --> <li><a href="//www.4mum.com.cn/77d944/69034815.html ">四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 </a> 2019-05-13</li> <li><a href="//www.4mum.com.cn/euy29/3433514.html ">银保监会新规剑指大企业多头融资和过度融资 </a> 2019-05-12</li> <li><a href="//www.4mum.com.cn/a62999/3431813.html ">韩国再提4国联合申办世界杯 中国网友无视:我们自己来 </a> 2019-05-11</li> <li><a href="//www.4mum.com.cn/4kf294/98434412.html ">中国人为什么一定要买房? </a> 2019-05-11</li> <li><a href="//www.4mum.com.cn/33r392/76278011.html ">十九大精神进校园:风正扬帆当有为&nbsp;勇做时代弄潮儿 </a> 2019-05-10</li> <li><a href="//www.4mum.com.cn/1jd106/47417610.html ">粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 </a> 2019-05-09</li> <li><a href="//www.4mum.com.cn/997397/2262689.html ">太原设禁鸣路段 设备在测试中 </a> 2019-05-09</li> <li><a href="//www.4mum.com.cn/br3559/3646538.html ">拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 </a> 2019-05-08</li> <li><a href="//www.4mum.com.cn/9h7915/8581547.html ">“港独”没出路!“梁天琦们”该醒醒了 </a> 2019-05-07</li> <li><a href="//www.4mum.com.cn/3n3511/2345366.html ">陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 </a> 2019-05-06</li> <li><a href="//www.4mum.com.cn/b0059/6332815.html ">人民日报客户端辟谣:“合成军装照”产品请放心使用 </a> 2019-05-05</li> <li><a href="//www.4mum.com.cn/v5j888/7405464.html ">【十九大·理论新视野】为什么要“建设现代化经济体系”?&nbsp;&nbsp; </a> 2019-05-04</li> <li><a href="//www.4mum.com.cn/pl1926/4722623.html ">聚焦2017年乌鲁木齐市老城区改造提升工程 </a> 2019-05-04</li> <li><a href="//www.4mum.com.cn/14g861/9039202.html ">【专家谈】上合组织——构建区域命运共同体的有力实践者 </a> 2019-05-03</li> <li><a href="//www.4mum.com.cn/7jn906/5662951.html ">【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! </a> 2019-05-03</li> <script>(function(){ var src = (document.location.protocol == "") ? "//js.passport.qihucdn.com/11.0.1.js?9ed1f3a8f9c3ff069b7b95c01474c743":"https://jspassport.ssl.qhimg.com/11.0.1.js?9ed1f3a8f9c3ff069b7b95c01474c743"; document.write('<script src="' + src + '" id="sozz"><\/script>'); })(); </script> <script> (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = '//push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })(); </script> <a href="//www.8942153.live">辽宁快乐12选5软件下载</a> <a href="//www.603116.live">福建快三开奖结果今天</a> <a href="//www.4042582.live">北京11选5选号</a> <a href="//www.2916435.live">网球比分规则</a> <a href="//www.242897.live">马云教我们怎么赚钱</a> <a href="//49942517.com">云南快乐十分app</a> <a href="//www.637987.live">体育彩票泳坛夺金</a> <a href="//www.9624333.live">南粤36选7几点开奖</a> <a href="//www.1512418.live">内蒙古11选5走势图5</a> <a href="//www.0926894.live">ag真人平台</a> <a href="//www.718830.live">捕鱼游戏平台</a> <a href="//www.6315013.live">新疆35选7风采走势图-大星彩</a> <a href="//www.7955111.live">青海十一选五基本走势图</a> <a href="//www.710374.live">上海时时彩开奖走势图百度百度贴吧</a> <a href="//www.0431978.live">最新湖北30选5开奖</a> <a href="//www.2384514.live">天津十一选五预测号码</a> </body></html>