• 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
    • / 13
    • 下载费用:30 金币  

    重庆时时彩后一趋势图: 一种基于深度分类网络的面部年龄估计方法.pdf

    关 键 词:
    一种 基于 深度 分类 网络 面部 年龄 估计 方法
      专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    摘要
    申请专利号:

    CN201611092820.3

    申请日:

    2016.12.02

    公开号:

    CN106778558A

    公开日:

    2017.05.31

    当前法律状态:

    实审

    有效性:

    审中

    法律详情: 实质审查的生效IPC(主分类):G06K 9/00申请日:20161202|||公开
    IPC分类号: G06K9/00; G06N3/08 主分类号: G06K9/00
    申请人: 电子科技大学
    发明人: 潘力立
    地址: 611731 四川省成都市高新区(西区)西源大道2006号
    优先权:
    专利代理机构: 电子科技大学专利中心 51203 代理人: 张杨
    PDF完整版下载: PDF下载
    法律状态
    申请(专利)号:

    CN201611092820.3

    授权公告号:

    |||

    法律状态公告日:

    2017.06.23|||2017.05.31

    法律状态类型:

    实质审查的生效|||公开

    摘要

    本发明提出了一种基于深度分类网络的年龄估计方法,属于计算机视觉和机器学习领域。该方法的主要思想是通过深度分类网络建立输入面部图像特征和年龄之间的映射关系。首先,对面部图像进行归一化并提取面部特征;接着,建立5层的深度分类模型,拟合输入图像特征和年龄之间的映射关系;之后,利用梯度下降法优化深度分类模型的参数;最后,对于待估计面部图像,利用学习好的深度模型估计年龄。

    权利要求书

    1.一种基于深度分类网络的面部年龄估计方法,包括以下步骤:
    步骤1:采集不同人的包含不同年龄的面部图像N幅,并标定对应的实际年龄;
    步骤2:对所有的面部图像利用SeataFace跟踪面部特征点,共得到M个面部特征点,M=
    5,包含:2个嘴角点,2个瞳孔中心和1个鼻尖点;
    步骤3:根据步骤2中的特征点定位结果对图像进行归一化;
    步骤4:将所有面部图像的灰度值向量化为1600维的向量,同时限制取值范围在0.1到
    0.9之间。限制方法如下:计算所有输入图像灰度值的均值μ和标准差σ,利用3σ将灰度值范
    围压缩到[-1,1];设任意第n幅输入图像对应的灰度向量为进行灰度值压缩后变为
    <mrow> <msub> <mover> <mi>x</mi> <mo>~</mo> </mover> <mi>n</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mi>max</mi> <mrow> <mo>(</mo> <mrow> <mi>min</mi> <mrow> <mo>(</mo> <mrow> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>n</mi> </msub> <mo>-</mo> <mi>&mu;</mi> <mo>,</mo> <mn>3</mn> <mi>&sigma;</mi> </mrow> <mo>)</mo> </mrow> <mo>,</mo> <mo>-</mo> <mn>3</mn> <mi>&sigma;</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mrow> <mn>3</mn> <mi>&sigma;</mi> </mrow> </mfrac> </mrow>
    最后将的数值范围压缩到[0.1,0.9]得到输入特征:
    <mrow> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mover> <mi>x</mi> <mo>~</mo> </mover> <mi>n</mi> </msub> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>*</mo> <mn>0.4</mn> <mo>+</mo> <mn>0.1</mn> <mo>;</mo> </mrow>
    步骤5:设置年龄对应的类别数目为100,即每1岁对应1个类别;
    步骤6:建立深度回归网络,该网络的输入为1600维图像特征,包含输入层和输出层网
    络共5层;将第一层的节点的值赋为输入特征其中sl表示图像特征的维数,即:
    之后进行逐层映射得到:
    <mrow> <msubsup> <mi>z</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>a</mi> <mrow> <mi>n</mi> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>a</mi> <mrow> <mi>n</mi> <mn>2</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>...</mo> <mo>+</mo> <msubsup> <mi>w</mi> <mrow> <msub> <mi>is</mi> <mi>l</mi> </msub> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>a</mi> <mrow> <msub> <mi>ns</mi> <mi>l</mi> </msub> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>b</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>s</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>,</mo> <mi>l</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>3</mn> </mrow>
    表示第l层的第j个单元的响应值,表示第l+1层的第i个单元的输入,
    和表示连接深度神经网络第l层的所有sl个单元和第l+1层的第i个单元之
    间的参数;具体来讲,表示连接第l层的第j个单元和第l+1层第i个单元之间的参数,
    为与第l+1层的隐单元i相关的偏差项,sl+1为第l+1层隐单元的数目;第l+1层的第i个单元
    是否被激活,由S形函数的输出决定,即:
    <mrow> <msubsup> <mi>a</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mi>&sigma;</mi> <mrow> <mo>(</mo> <msubsup> <mi>z</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>s</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>,</mo> <mi>l</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>3</mn> </mrow>
    上式可表示为:
    <mrow> <msubsup> <mi>a</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mi>&sigma;</mi> <mrow> <mo>(</mo> <mrow> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>a</mi> <mrow> <mi>n</mi> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>a</mi> <mrow> <mi>n</mi> <mn>2</mn> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mn>...</mn> <mo>+</mo> <msubsup> <mi>w</mi> <mrow> <msub> <mi>is</mi> <mi>l</mi> </msub> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>a</mi> <mrow> <msub> <mi>ns</mi> <mi>l</mi> </msub> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>b</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <mo>)</mo> </mrow> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>s</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>,</mo> <mi>l</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>3</mn> </mrow>
    根据上述原理可以计算出第1层到第4层的所有节点,输出层有K=100个输出函数h1
    (·),...,hK(·),分别对应100个年龄类别,其中hk(·)输出某个输入样本属于第k个类别
    的概率
    <mrow> <msub> <mi>h</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>n</mi> </msub> <mo>=</mo> <mi>k</mi> <mo>|</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>,</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <msup> <mi>e</mi> <mrow> <msubsup> <mi>w</mi> <mi>k</mi> <mi>T</mi> </msubsup> <msubsup> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </msubsup> </mrow> </msup> <mrow> <msubsup> <mi>&Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </msubsup> <msup> <mi>e</mi> <mrow> <msubsup> <mi>w</mi> <mi>j</mi> <mi>T</mi> </msubsup> <msubsup> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </msubsup> </mrow> </msup> </mrow> </mfrac> </mrow>
    其中k=1,…,K,网络参数
    表示类别k的输出函数hk(·)中的参数向量,表示K
    个类别输出函数的参数向量,对样本xn的年龄估计值为argmaxkhk(xn),即样本的估计年龄
    为所属类别概率最大值时对应的类别标号;
    步骤7:通过步骤6中的深度分类网络,建立关于网络参数θ的目标函数:
    <mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <mn>1</mn> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>n</mi> </msub> <mo>=</mo> <mi>k</mi> <mo>)</mo> </mrow> <msub> <mi>logh</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mi>&lambda;</mi> <mn>2</mn> </mfrac> <mo>|</mo> <mo>|</mo> <mi>&theta;</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow>
    1(yn=k)为指示函数,当条件yn=k满足时,1(yn=k)=1,否则为0,λ表示约束项‖θ‖2的
    强度;将每一个标定年龄yn转化为二值向量tn,若yn=k则对应二值向量为tn的第k个元素tnk
    为1其余元素为0,N表示训练样本的数目,由此目标函数的等价形式可写为:
    <mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <mo>{</mo> <msub> <mi>t</mi> <mrow> <mi>n</mi> <mi>k</mi> </mrow> </msub> <msub> <mi>logh</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>t</mi> <mrow> <mi>n</mi> <mi>k</mi> </mrow> </msub> <mo>)</mo> </mrow> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>h</mi> <mi>k</mi> </msub> <mo>(</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>)</mo> <mo>)</mo> </mrow> <mo>}</mo> <mo>+</mo> <mfrac> <mi>&lambda;</mi> <mn>2</mn> </mfrac> <mo>|</mo> <mo>|</mo> <mi>&theta;</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow>
    步骤8:根据步骤6中的深度分类网络,当输入为xn时利用前向传播算法计算i=
    1,…,sl+1,l=1,2,3;
    步骤9:计算第4层的每一个单元i的误差项;
    <mrow> <msubsup> <mi>&delta;</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mi>k</mi> </msub> <mo>(</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>)</mo> <mo>-</mo> <msub> <mi>t</mi> <mrow> <mi>n</mi> <mi>k</mi> </mrow> </msub> <mo>)</mo> </mrow> <msub> <mi>w</mi> <mrow> <mi>k</mi> <mi>i</mi> </mrow> </msub> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>s</mi> <mn>4</mn> </msub> </mrow>
    其中tnk表示tn的第k个元素,tn表示标定年龄yn转化为二值向量tn,wki是softmax回归中
    第k个回归函数的权向量wk的第i个元素;之后,利用后向传播算法,计算1,2,3层的误差项
    <mrow> <msubsup> <mi>&delta;</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>s</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> </munderover> <msubsup> <mi>w</mi> <mrow> <mi>j</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>&delta;</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <msup> <mi>&sigma;</mi> <mo>&prime;</mo> </msup> <mrow> <mo>(</mo> <msubsup> <mi>z</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> <mi>l</mi> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> <mi>l</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>3</mn> </mrow>
    步骤10:求解网络参数θ的目标函数关于softmax回归参数的梯度
    <mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mi>k</mi> </msub> </mrow> </mfrac> <mo>=</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mi>k</mi> </msub> <mo>(</mo> <msub> <mi>x</mi> <mi>n</mi> </msub> <mo>)</mo> <mo>-</mo> <msub> <mi>t</mi> <mrow> <mi>n</mi> <mi>k</mi> </mrow> </msub> <mo>)</mo> </mrow> <msubsup> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </msubsup> </mrow>
    同时求解网络参数θ的目标函数关于网络参数的偏导数
    <mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msubsup> <mi>a</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>&delta;</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>&lambda;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> </mrow>
    <mrow> <mfrac> <mrow> <mo>&part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>b</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> <mo>=</mo> <mfrac> <mn>1</mn> <mi>N</mi> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msubsup> <mi>&delta;</mi> <mrow> <mi>n</mi> <mi>i</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mrow>
    有上述目标函数关于参数的梯度和偏导数,求出目标函数关于深度分类网络参数θ的
    梯度向量:
    <mrow> <msub> <mo>&dtri;</mo> <mi>&theta;</mi> </msub> <mi>J</mi> <mrow> <mo>(</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>=</mo> <msup> <mrow> <mo>(</mo> <msup> <mfrac> <mrow> <mo>&part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mn>1</mn> </msub> </mrow> </mfrac> <mi>T</mi> </msup> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msup> <mfrac> <mrow> <mo>&part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&part;</mo> <msub> <mi>w</mi> <mi>K</mi> </msub> </mrow> </mfrac> <mi>T</mi> </msup> <mo>,</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> <mo>,</mo> <mfrac> <mrow> <mo>&part;</mo> <mi>J</mi> </mrow> <mrow> <mo>&part;</mo> <msubsup> <mi>b</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> </mrow> </mfrac> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>s</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mo>,</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msub> <mi>s</mi> <mi>l</mi> </msub> <mo>,</mo> <mi>l</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mn>3</mn> <mo>)</mo> </mrow> <mi>T</mi> </msup> </mrow>
    从而利用该深度分类网络进行目标面部年龄估计。
    2.如权利要求1所述的一种基于深度分类网络的面部年龄估计方法,其特征在于所述
    步骤6中提到的深度分类网络,每一层的单元数目分别为s1=1600,s2=300,s3=250和s4=
    200,输出层只有100个单元,即:s5=100。
    3.如权利要求1所述的一种基于深度分类网络的面部年龄估计方法,其特征在于所述
    步骤7:为了求得最佳的深度分类网络参数θ,我们需要先初始化参数,再利用梯度下降法进
    行优化,具体包含下面两个步骤:
    (a)网络参数初始化;首先随机初始化
    当初始化第1层和2层之间的参数时,利用梯度
    下降法优化参数使得仅利用2层网络的输出重构
    原始输入特征,并使重构误差最??;当修正第2和3层之间参数时,利用梯度下降法优化参数
    把第2层的输出作为输入,仅利用第3层网络的输
    出就可以重构原始输入特征,并使得重构误差最??;对于第3和4层之间的参数,我们利用前
    3层的输出作为输入,优化参数并使得特征重构误
    差最??;对于softmax回归模型额参数初始化,需要将第4层的输出作为softmax回归的输
    入,在估计误差最小的情况下得到参w1,...,wK的初始值;
    (b)梯度下降法;根据初始化值,更新参数向量θ,即:
    <mrow> <msup> <mi>&theta;</mi> <mrow> <mo>&lsqb;</mo> <mi>t</mi> <mo>+</mo> <mn>1</mn> <mo>&rsqb;</mo> </mrow> </msup> <mo>=</mo> <msup> <mi>&theta;</mi> <mrow> <mo>&lsqb;</mo> <mi>t</mi> <mo>&rsqb;</mo> </mrow> </msup> <mo>-</mo> <mi>&alpha;</mi> <msubsup> <mo>&dtri;</mo> <mi>&theta;</mi> <mrow> <mo>&lsqb;</mo> <mi>t</mi> <mo>&rsqb;</mo> </mrow> </msubsup> <mi>J</mi> <mrow> <mo>(</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> </mrow>
    其中上标[t]和[t+1]表示第t次和t+1次迭代;当θ满足收敛条件时停止迭代。

    说明书

    一种基于深度分类网络的面部年龄估计方法

    技术领域

    本发明属于计算机视觉技术领域,涉及面部年龄估计技术,主要应用于基于年龄
    的登陆控制,年龄差异化广告以及年龄相关的人机交互技术等领域。

    背景技术

    面部年龄估计技术是指通过计算机算法对人脸面部特征进行分析后,自动估计人
    体年龄的技术。通常,计算机通过摄像头采集人脸图像(照片),并对面部特征进行提取和分
    析,自动估计该图像对应的年龄。由于该技术在年龄相关的人际交互、基于年龄的登陆控制
    和年龄差异化广告方面都有非常广泛的应用,因此它引起了计算机视觉领域学者的广泛兴
    趣和关注。目前已有的人脸面部年龄估计算法可以分为2大类:(1)基于浅层模型的年龄估
    计方法,和(2)基于深度网络的年龄估计算法。

    基于浅层模型的年龄估计方法作为最常见的一种年龄估计方法,其基本原理是假
    设所有人的面部特征和对应年龄之间存在通用(共同)的映射关系,该映射关系可以通过线
    性或非线性回归拟合实现。同时这类方法假设映射函数只有单层,即直接从输入图像特征
    映射到年龄。其优点在于模型简单,不受训练样本数多少的影响。而其缺点在于估计的准确
    性较差,原因是单层模型很难准确描述面部特征和年龄之间的复杂关系,同时需要进行降
    维前处理,降维与估计模型分离造成特征提取的结果并不是最适合于后续年龄估计模型
    的。参见文献:A.Lanitis,C.J.Taylor,and T.F.Cootes,Automatic Interpretation and
    Coding of Face Images using Flexible Models,IEEE Transactions on Pattern
    Analysis and Machine Intelligence,vol.19,no.7,pp.743–756,1997。

    基于深度网络的年龄估计方法是近年来该领域研究的热点,其基本原理是利用卷
    积神经网络学习适合于年龄估计的特征,并在深度网络的最后一层设计softmax函数或其
    它单层函数将学到的特征回归到对应的年龄。该类方法的优点在于准确性高,并且是端到
    端的模型,不需要对图像进行复杂的归一化矫正。其缺点在于需要在GPU服务器上进行运
    算,硬件配置较高,并且训练时间过长。参考文献Z.Niu,M.Zhou,L.Wang,X.Gao,and G.Hua,
    Ordinal Regression with Multiple Output CNN for Age Estimation,The Conference
    on computer vision and pattern recognition,2016。

    本专利针对上述两类方法的缺陷,提出了一种新的基于栈式自编码的深度分类网
    络,并用于年龄估计,取得了令人满意的估计结果。

    发明内容

    本发明提供一种基于深度分类网络的面部年龄估计算法,首先对面部图像进行简
    单的矫正并归一化到40*40像素。接着,根据所有图像对应的标定年龄建立深度分类网络模
    拟从面部特征到目标年龄的分类模型,并求解网络参数;最后在给定待估计面部年龄图像
    时,对面部图像进行年龄分类,分类的间隙为1岁,算法示意图参见图2。

    为了方便地描述本发明内容,首先对一些术语进行定义。

    定义1:面部特征点。人为定义人面部的一些特殊点,例如嘴角点,眼角点等。

    定义2:seataFace。一种用于跟踪定位面部特征点的C++软件包。

    定义3:归一化。利用面部特征点的相对位置以消除尺度,旋转变化对图像影响的
    方法。

    定义4:softmax回归。在多类分类问题中对于任意输入x,其属于第k类(共K类)的
    概率为该表达式为

    定义5:前向传播。通过输入和当前网络参数计算从输入层到输出层逐层计算每一
    层节点单元对应值的方法。

    定义6:后向传播算法。是一种监督学习算法,常被用来训练多层神经网络。一般包
    含两个阶段:(1)前向传播阶段将训练输入送入网络以获得激励响应;(2)反向传播阶段将
    激励响应同训练输入对应的目标输出求差,从而获得隐层和输出层的响应误差。

    定义7:导数。当函数y=f(x)的自变量x在一点x0上产生一个增量Δx时,函数输出
    值的增量Δy与自变量增量Δx的比值在Δx趋于0时的极限如果存在,即为在x0处的导数,
    记作f′(x0)。

    定义8:梯度。当函数y=f(x)的自变量x的维数为D时候,梯度定义为
    为函数f(x)关于变量xd的偏导数。

    定义9:梯度法。梯度下降法是一个最优化算法,为求解函数f(x)取极值时,自变量
    的取值可以迭代求解,即:


    直到梯度值为零,得到解。

    定义10:S形函数。S形函数(sigmoid function)一般可以表示为σ(·),其表达式

    本发明详细技术方案如下:一种基于深度分类网络的面部年龄估计方法,包括以
    下步骤:

    步骤1:采集不同人的包含不同年龄的面部图像N幅,并标定对应的实际年龄;

    步骤2:对所有的面部图像利用SeataFace跟踪面部特征点,共得到M个面部特征
    点,M=5,包含:2个嘴角点,2个瞳孔中心和1个鼻尖点;

    步骤3:根据步骤2中的特征点定位结果对图像进行归一化;

    步骤4:将所有面部图像的灰度值向量化为1600维的向量,同时限制取值范围在
    0.1到0.9之间。限制方法如下:计算所有输入图像灰度值的均值μ和标准差σ,利用3σ将灰度
    值范围压缩到[-1,1];设任意第n幅输入图像对应的灰度向量为进行灰度值压缩后变为


    最后将的数值范围压缩到[0.1,0.9]得到输入特征:


    步骤5:设置年龄对应的类别数目为100,即每1岁对应1个类别;

    步骤6:建立深度回归网络,该网络的输入为1600维图像特征,包含输入层和输出
    层网络共5层;将第一层的节点的值赋为输入特征其中sl表示图像特征的维数,
    即:之后进行逐层映射得到:


    表示第l层的第j个单元的响应值,表示第l+1层的第i个单元的输入,
    和表示连接深度神经网络第l层的所有sl个单元和第l+1层的第i个单元之
    间的参数;具体来讲,表示连接第l层的第j个单元和第l+1层第i个单元之间的参数,
    为与第l+1层的隐单元i相关的偏差项,sl+1为第l+1层隐单元的数目;第l+1层的第i个单
    元是否被激活,由S形函数的输出决定,即:


    上式可表示为:


    根据上述原理可以计算出第1层到第4层的所有节点,输出层有K=100个输出函数
    h1(·),...,hK(·),分别对应100个年龄类别,其中hk(·)输出某个输入样本属于第k个类
    别的概率


    其中k=1,...,K,网络参数
    表示类别k的输出函数hk(·)中的参数向量,表示K
    个类别输出函数的参数向量,对样本xn的年龄估计值为argmaxkhk(xn),即样本的估计年龄
    为所属类别概率最大值时对应的类别标号;

    步骤7:通过步骤6中的深度分类网络,建立关于网络参数θ的目标函数:


    1(yn=k)为指示函数,当条件yn=k满足时,1(yn=k)=1,否则为0,λ表示约束项‖
    θ‖2的强度;将每一个标定年龄yn转化为二值向量tn,若yn=k则对应二值向量为tn的第k个元
    素tnk为1其余元素为0,N表示训练样本的数目,由此目标函数的等价形式可写为:


    步骤8:根据步骤6中的深度分类网络,当输入为xn时利用前向传播算法计算

    步骤9:计算第4层的每一个单元i的误差项;


    其中tnk表示tn的第k个元素,tn表示标定年龄yn转化为二值向量tn,wki是softmax回
    归中第k个回归函数的权向量wk的第i个元素;之后,利用后向传播算法,计算1,2,3层的误
    差项


    步骤10:求解网络参数θ的目标函数关于softmax回归参数的梯度


    同时求解网络参数θ的目标函数关于网络参数的偏
    导数



    有上述目标函数关于参数的梯度和偏导数,求出目标函数关于深度分类网络参数
    θ的梯度向量:


    从而利用该深度分类网络进行目标面部年龄估计。

    进一步的,所述步骤6中提到的深度分类网络,每一层的单元数目分别为s1=
    1600,s2=300,s3=250和s4=200,输出层只有100个单元,即:s5=100。

    进一步的,所述步骤7:为了求得最佳的深度分类网络参数θ,我们需要先初始化参
    数,再利用梯度下降法进行优化,具体包含下面两个步骤:

    (a)网络参数初始化;首先随机初始化
    当初始化第1层和2层之间的参数时,利用梯度
    下降法优化参数使得仅利用2层网络的输出重构
    原始输入特征,并使重构误差最??;当修正第2和3层之间参数时,利用梯度下降法优化参数
    把第2层的输出作为输入,仅利用第3层网络的输
    出就可以重构原始输入特征,并使得重构误差最??;对于第3和4层之间的参数,我们利用前
    3层的输出作为输入,优化参数并使得特征重构误
    差最??;对于softmax回归模型额参数初始化,需要将第4层的输出作为softmax回归的输
    入,在估计误差最小的情况下得到参w1,...,wK的初始值;

    (b)梯度下降法;根据初始化值,更新参数向量θ,即:


    其中上标[t]和[t+1]表示第t次和t+1次迭代;当θ满足收敛条件时停止迭代。

    本发明的创新之处在于:

    利用深度分类网络学习年龄类别与输入图像特征之间的关系,精确模拟了二者之
    间的复杂非线性关系。由于上述创新,使得本专利提出的面部年龄估计算法有较理想的估
    计准确性。

    附图说明

    图1是不同人的不同年龄的面部图像。

    图2是深度分类网络示意图。

    具体实施方式

    实现语言:Matlab,C/C++

    硬件平台:Intel core2 E7400+4G DDR RAM

    软件平台:Matlab2015a,VisualStdio2010

    采用本发明的方法,首先在VisualStdio2010平台上利用SeatFace工具包提取面
    部图像的特征点,并记录每一幅图像对应的特征点位置。接着根据专利内容利用C++或
    matlab编程实现算法,进行面部特征提取并逐层回归到年龄类别。最后根据已学到的深度
    分类网络,对待估计样本利用上述代码估计其对应的年龄。

    该方法一种基于深度分类网络的面部年龄估计方法,包括以下步骤:

    步骤1:采集不同人的包含不同年龄的面部图像N幅,并标定对应的实际年龄;

    步骤2:对所有的面部图像利用SeataFace跟踪面部特征点,共得到M个面部特征
    点,M=5,包含:2个嘴角点,2个瞳孔中心和1个鼻尖点;

    步骤3:根据步骤2中的特征点定位结果对图像进行归一化;

    步骤4:将所有面部图像的灰度值向量化为1600维的向量,同时限制取值范围在
    0.1到0.9之间。限制方法如下:计算所有输入图像灰度值的均值μ和标准差σ,利用3σ将灰度
    值范围压缩到[-1,1];设任意第n幅输入图像对应的灰度向量为进行灰度值压缩后变为


    最后将的数值范围压缩到[0.1,0.9]得到输入特征:


    步骤5:设置年龄对应的类别数目为100,即每1岁对应1个类别;

    步骤6:建立深度回归网络,该网络的输入为1600维图像特征,包含输入层和输出
    层网络共5层;将第一层的节点的值赋为输入特征其中sl表示图像特征的维数,
    即:之后进行逐层映射得到:


    表示第l层的第j个单元的响应值,表示第l+1层的第i个单元的输入,
    和表示连接深度神经网络第l层的所有sl个单元和第l+1层的第i个单元之
    间的参数;具体来讲,表示连接第l层的第j个单元和第l+1层第i个单元之间的参数,
    为与第l+1层的隐单元i相关的偏差项,sl+1为第l+1层隐单元的数目;第l+1层的第i个单
    元是否被激活,由S形函数的输出决定,即:


    上式可表示为:


    根据上述原理可以计算出第1层到第4层的所有节点,输出层有K=100个输出函数
    h1(·),...,hK(·),分别对应100个年龄类别,其中hk(·)输出某个输入样本属于第k个类
    别的概率


    其中k=1,...,K,网络参数
    表示类别k的输出函数hk(·)中的参数向量,表示K
    个类别输出函数的参数向量,对样本xn的年龄估计值为argmaxkhk(xn),即样本的估计年龄
    为所属类别概率最大值时对应的类别标号;

    所述步骤6中的深度分类网络,每一层的单元数目分别为s1=1600,s2=300,s3=
    250和s4=200,输出层只有100个单元,即:s5=100。

    步骤7:通过步骤6中的深度分类网络,建立关于网络参数θ的目标函数:


    1(yn=k)为指示函数,当条件yn=k满足时,1(yn=k)=1,否则为0,λ表示约束项‖
    θ‖2的强度;将每一个标定年龄yn转化为二值向量tn,若yn=k则对应二值向量为tn的第k个元
    素tnk为1其余元素为0,N表示训练样本的数目,由此目标函数的等价形式可写为:


    所述步骤7:为了求得最佳的深度分类网络参数θ,我们需要先初始化参数,再利用
    梯度下降法进行优化,具体包含下面两个步骤:

    (a)网络参数初始化;首先随机初始化
    当初始化第1层和2层之间的参数时,利用梯度
    下降法优化参数使得仅利用2层网络的输出重构
    原始输入特征,并使重构误差最??;当修正第2和3层之间参数时,利用梯度下降法优化参数
    把第2层的输出作为输入,仅利用第3层网络的输
    出就可以重构原始输入特征,并使得重构误差最??;对于第3和4层之间的参数,我们利用前
    3层的输出作为输入,优化参数并使得特征重构误
    差最??;对于softmax回归模型额参数初始化,需要将第4层的输出作为softmax回归的输
    入,在估计误差最小的情况下得到参w1,...,wK的初始值;

    (b)梯度下降法;根据初始化值,更新参数向量θ,即:


    其中上标[t]和[t+1]表示第t次和t+1次迭代;当θ满足收敛条件时停止迭代。

    步骤8:根据步骤6中的深度分类网络,当输入为xn时利用前向传播算法计算

    步骤9:计算第4层的每一个单元i的误差项;


    其中tnk表示tn的第k个元素,tn表示标定年龄yn转化为二值向量tn,wki是softmax回
    归中第k个回归函数的权向量wk的第i个元素;之后,利用后向传播算法,计算1,2,3层的误
    差项


    步骤10:求解网络参数θ的目标函数关于softmax回归参数的梯度


    同时求解网络参数θ的目标函数关于网络参数的偏
    导数



    有上述目标函数关于参数的梯度和偏导数,求出目标函数关于深度分类网络参数
    θ的梯度向量:


    从而利用该深度分类网络进行目标面部年龄估计。

    关于本文
    本文标题:一种基于深度分类网络的面部年龄估计方法.pdf
    链接地址://www.4mum.com.cn/p-6021300.html
    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    [email protected] 2017-2018 www.4mum.com.cn网站版权所有
    经营许可证编号:粤ICP备17046363号-1 
     


    收起
    展开
  • 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
  • 后三直选复式稳赚教程 飞艇人工计划和软件计划 黑龙江时时历史开奖号码 快乐时时走势图开奖号码 3d组选概率计算公式 江西时时开奖结果走势图 云南时时计划软件手机版 幸运飞航收费计划软件 快乐时时是全国开奖号码 红包大小单双玩法 七乐彩2000期的走势图 吉林吉林省快三走势图 11选5任二稳赚计划 幸运飞艇时间作弊 七乐彩胆拖中奖计算器 吉林时时历史开奖记录