• 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
    • / 14
    • 下载费用:30 金币  

    重庆时时彩抓一码技巧: 精确快速低投入的FPGA延时估计方法.pdf

    关 键 词:
    精确 快速 投入 FPGA 延时 估计 方法
      专利查询网所有资源均是用户自行上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作他用。
    摘要
    申请专利号:

    CN201611099411.6

    申请日:

    2016.12.02

    公开号:

    CN106777608A

    公开日:

    2017.05.31

    当前法律状态:

    实审

    有效性:

    审中

    法律详情: 实质审查的生效IPC(主分类):G06F 17/50申请日:20161202|||公开
    IPC分类号: G06F17/50; G06N3/063 主分类号: G06F17/50
    申请人: 天津大学
    发明人: 钱涵晶; 刘强
    地址: 300072 天津市南开区卫津路92号
    优先权:
    专利代理机构: 天津市北洋有限责任专利代理事务所 12201 代理人: 刘国威
    PDF完整版下载: PDF下载
    法律状态
    申请(专利)号:

    CN201611099411.6

    授权公告号:

    |||

    法律状态公告日:

    2017.06.23|||2017.05.31

    法律状态类型:

    实质审查的生效|||公开

    摘要

    本发明涉及FPGA架构优化领域,为提出全面考虑影响电路延时的关键参数,允许在FPGA架构设计阶段协同探索架构级参数和晶体管级参数的可变性,既体现和保持参数间的物理意义,又减少神经网络的训练数据量,实现快速、精确、低投入的延时估计。为此,本发明,精确快速低投入的FPGA延时估计方法,步骤如下:1)确定拟合参数ɑ和有效迁移率μ;2)确定各子电路中每一类晶体管的负载电容;3)对FPGA中各子电路分别建立FPGA??macro延时模型;4)进行分析和归一化;5)求解权重Ω和Φ以及隐藏神经元的数量m,使得训练误差Et和验证误差Ev最小。本发明主要应用于设计制造场合。

    权利要求书

    1.一种精确快速低投入的FPGA延时估计方法,其特征是,步骤如下:
    1)确定拟合参数ɑ和有效迁移率μ;
    2)将FPGA中各子电路等效为RC模型,结合FPGA架构参数,确定各子电路中每一类晶体
    管的负载电容;
    3)根据已确定好的拟合参数ɑ、有效迁移率μ和负载电容参数,对FPGA中各子电路分别
    建立延时模型,即FPGA-macro延时模型;
    4)收集训练数据,并对其进行分析和归一化;
    5)将FPGA-macro延时模型与神经网络相结合,建立KBNN延时模型并进行训练,求解权
    重Ω和Φ以及隐藏神经元的数量m使得训练误差Et和验证误差Ev最小。
    2.如权利要求1所述的精确快速低投入的FPGA延时估计方法,其特征是,一个实例中具
    体步骤进一步细化为:
    1)确定拟合参数ɑ和有效迁移率μ
    首先,分别建立由10、11、12个非门串联连接的非门链,并利用电路仿真工具HSPICE分
    别测量各非门链的延时,记为τ10,τ11,τ12,通过计算得到PMOS晶体管的延时为tpmos=τ12-τ11,
    NMOS晶体管的延时为tnmos=τ11-τ10,利用公式(1)和公式(2)求得拟合参数ɑ和有效迁移率μ
    的值,(Vt1,Δt1)和(Vt2,Δt2)是在相同Vdd下得到的阈值电压和晶体管延时的组合,其中,We
    和Le分别是有效沟道宽度和长度,Vdd为供电电压,Vt为阈值电压,Ci和Cox分别代表负载电容
    和氧化电容,
    <mrow> <mi>&alpha;</mi> <mrow> <mo>(</mo> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>&Delta;t</mi> <mn>1</mn> </msub> <mo>/</mo> <msub> <mi>&Delta;t</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mi>l</mi> <mi>o</mi> <mi>g</mi> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>V</mi> <mrow> <mi>t</mi> <mn>2</mn> </mrow> </msub> </mrow> <mo>)</mo> <mo>/</mo> <mo>(</mo> <mrow> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>V</mi> <mrow> <mi>t</mi> <mn>1</mn> </mrow> </msub> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
    <mrow> <mi>&mu;</mi> <mrow> <mo>(</mo> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>V</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>*</mo> <mfrac> <msub> <mi>C</mi> <mi>i</mi> </msub> <msub> <mi>C</mi> <mrow> <mi>o</mi> <mi>x</mi> </mrow> </msub> </mfrac> <mo>*</mo> <mfrac> <msub> <mi>L</mi> <mi>e</mi> </msub> <msub> <mi>W</mi> <mi>e</mi> </msub> </mfrac> <mo>*</mo> <mfrac> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <msup> <mrow> <mo>(</mo> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>V</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> <mi>&alpha;</mi> </msup> </mfrac> <mo>*</mo> <mfrac> <mn>1</mn> <mrow> <mi>&Delta;</mi> <mi>t</mi> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
    2)确定负载电容
    在获得ɑ和μ的值之后,根据连接块等效模型确定各晶体管的负载电容,连接块中四类
    晶体管的负载电容获得方法如公式(3)-(6)所示,其中,W为布线通道宽度,Fcin为逻辑块输
    入引脚所能连接的布线轨道数目,N为逻辑块中基本逻辑单元的数量,K为查找表LUT的输入
    数量,CCB,mux1,CCB,mux2和CCB,drv1,CCB,drv2分别表示连接块选择器和连接块缓冲器中晶体管的
    负载电容,其中,Cj,CBmux1,Cj,CBmux2是连接块多路选择器中晶体管的结电容,Cg,CBdrv1,Cg,CBdrv2
    和Cj,CBdrv1,Cj,CBdrv2分别是连接块缓冲器中晶体管的栅电容和结电容,Cj,localmux1是局部互连
    多路选择器中晶体管的结电容,ceil()为向上取整函数,floor()为向下取整函数:
    <mrow> <msub> <mi>C</mi> <mrow> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>1</mn> </mrow> </msub> <mo>=</mo> <mi>c</mi> <mi>e</mi> <mi>i</mi> <mi>l</mi> <mrow> <mo>(</mo> <mo>(</mo> <mrow> <mi>W</mi> <mo>*</mo> <msub> <mi>F</mi> <mrow> <mi>c</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> <mo>)</mo> <mo>/</mo> <mi>f</mi> <mi>l</mi> <mi>o</mi> <mi>o</mi> <mi>r</mi> <mo>(</mo> <msqrt> <mrow> <mi>W</mi> <mo>*</mo> <msub> <mi>F</mi> <mrow> <mi>c</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> </msqrt> <mo>)</mo> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>C</mi> <mrow> <mi>j</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>1</mn> </mrow> </msub> <mo>+</mo> <msub> <mi>C</mi> <mrow> <mi>j</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>2</mn> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
    <mrow> <msub> <mi>C</mi> <mrow> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>2</mn> </mrow> </msub> <mo>=</mo> <mi>f</mi> <mi>l</mi> <mi>o</mi> <mi>o</mi> <mi>r</mi> <mrow> <mo>(</mo> <msqrt> <mrow> <mi>W</mi> <mo>*</mo> <msub> <mi>F</mi> <mrow> <mi>c</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> </msqrt> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>C</mi> <mrow> <mi>j</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>2</mn> </mrow> </msub> <mo>+</mo> <msub> <mi>C</mi> <mrow> <mi>g</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mi>d</mi> <mi>r</mi> <mi>v</mi> <mn>1</mn> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
    CCB,drv1=Cj,CBdrv1+Cg,CBdrv2 (5)
    CCB,drv2=Cj,CBdrv2+N*K*Cj,localmux1 (6)
    3)建立FPGA-macro延时模型
    根据已确定的参数,连接块的延时表示为公式(7)的形式,We,CB,mux1和We,CB,mux2分别为连
    接块中一级多路选择器和二级多路选择器的晶体管有效沟道宽度,We,CB,drv1和We,CB,drv2为连
    接块缓冲器中的晶体管有效沟道宽度,典型关键路径的延时由各子电路的加权和得到,表
    示为公式(8)的形式,TSB为开关块的延时,TCB为连接块延时,Tlocalmux为局部互连块延时,
    Tfeedback为反馈路径延时,Tgeneral_output为输出路径延时,TLUT为查找表延时,TLUTdrv为查找表
    缓冲器延时,权重w1-w6由各子电路出现在布局布线后的基准电路的关键路径上的次数决
    定,
    <mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mi>T</mi> <mrow> <mi>C</mi> <mi>B</mi> </mrow> </msub> <mo>=</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>C</mi> <mrow> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>1</mn> </mrow> </msub> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>/</mo> <mn>2</mn> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <mrow> <mi>&mu;</mi> <mo>*</mo> <msub> <mi>C</mi> <mrow> <mi>o</mi> <mi>x</mi> </mrow> </msub> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>W</mi> <mrow> <mi>e</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>1</mn> </mrow> </msub> <mo>/</mo> <msub> <mi>L</mi> <mi>e</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>*</mo> <msup> <mrow> <mo>(</mo> <mrow> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>V</mi> <mi>t</mi> </msub> </mrow> <mo>)</mo> </mrow> <mi>&alpha;</mi> </msup> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>C</mi> <mrow> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>2</mn> </mrow> </msub> <mo>*</mo> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>/</mo> <mn>2</mn> </mrow> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <mrow> <mi>&mu;</mi> <mo>*</mo> <msub> <mi>C</mi> <mrow> <mi>o</mi> <mi>x</mi> </mrow> </msub> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>W</mi> <mrow> <mi>e</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>m</mi> <mi>u</mi> <mi>x</mi> <mn>2</mn> </mrow> </msub> <mo>/</mo> <msub> <mi>L</mi> <mi>e</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>*</mo> <msup> <mrow> <mo>(</mo> <mrow> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>V</mi> <mi>t</mi> </msub> </mrow> <mo>)</mo> </mrow> <mi>&alpha;</mi> </msup> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>C</mi> <mrow> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>d</mi> <mi>r</mi> <mi>v</mi> <mn>1</mn> </mrow> </msub> <mo>*</mo> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>/</mo> <mn>2</mn> </mrow> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <mrow> <mi>&mu;</mi> <mo>*</mo> <msub> <mi>C</mi> <mrow> <mi>o</mi> <mi>x</mi> </mrow> </msub> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>W</mi> <mrow> <mi>e</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>d</mi> <mi>r</mi> <mi>v</mi> <mn>1</mn> </mrow> </msub> <mo>/</mo> <msub> <mi>L</mi> <mi>e</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>*</mo> <msup> <mrow> <mo>(</mo> <mrow> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>V</mi> <mi>t</mi> </msub> </mrow> <mo>)</mo> </mrow> <mi>&alpha;</mi> </msup> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>C</mi> <mrow> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>d</mi> <mi>r</mi> <mi>v</mi> <mn>2</mn> </mrow> </msub> <mo>*</mo> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>/</mo> <mn>2</mn> </mrow> <mo>)</mo> </mrow> <mo>/</mo> <mrow> <mo>(</mo> <mrow> <mi>&mu;</mi> <mo>*</mo> <msub> <mi>C</mi> <mrow> <mi>o</mi> <mi>x</mi> </mrow> </msub> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>W</mi> <mrow> <mi>e</mi> <mo>,</mo> <mi>C</mi> <mi>B</mi> <mo>,</mo> <mi>d</mi> <mi>r</mi> <mi>v</mi> <mn>2</mn> </mrow> </msub> <mo>/</mo> <msub> <mi>L</mi> <mi>e</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>*</mo> <msup> <mrow> <mo>(</mo> <mrow> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>V</mi> <mi>t</mi> </msub> </mrow> <mo>)</mo> </mrow> <mi>&alpha;</mi> </msup> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
    <mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mi>T</mi> <mrow> <mi>t</mi> <mi>o</mi> <mi>t</mi> <mi>a</mi> <mi>l</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>w</mi> <mn>1</mn> </msub> <mo>*</mo> <msub> <mi>T</mi> <mrow> <mi>S</mi> <mi>B</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>w</mi> <mn>2</mn> </msub> <mo>*</mo> <msub> <mi>T</mi> <mrow> <mi>C</mi> <mi>B</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>w</mi> <mn>3</mn> </msub> <mo>*</mo> <msub> <mi>T</mi> <mrow> <mi>l</mi> <mi>o</mi> <mi>c</mi> <mi>a</mi> <mi>l</mi> <mi>m</mi> <mi>u</mi> <mi>x</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>w</mi> <mn>4</mn> </msub> <mo>*</mo> <msub> <mi>T</mi> <mrow> <mi>f</mi> <mi>e</mi> <mi>e</mi> <mi>d</mi> <mi>b</mi> <mi>a</mi> <mi>c</mi> <mi>k</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <msub> <mi>w</mi> <mn>5</mn> </msub> <mo>*</mo> <msub> <mi>T</mi> <mrow> <mi>g</mi> <mi>e</mi> <mi>n</mi> <mi>e</mi> <mi>r</mi> <mi>a</mi> <mi>l</mi> <mo>_</mo> <mi>o</mi> <mi>u</mi> <mi>t</mi> <mi>p</mi> <mi>u</mi> <mi>t</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>w</mi> <mn>6</mn> </msub> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mrow> <mi>L</mi> <mi>U</mi> <mi>T</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>T</mi> <mrow> <mi>L</mi> <mi>U</mi> <mi>T</mi> <mi>d</mi> <mi>r</mi> <mi>v</mi> </mrow> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
    4)数据收集并进行归一化
    在训练开始之前,首先要将训练数据归一化到同一个数量级,所以对每个参数x∈{N,
    K,W,L,I,Fs,Fcin,Fcout,Vdd,Vtn,Vtp,ΔT}进行公示(9)的所示操作,其中,Vtn和Vtp分别为NMOS
    晶体管和PMOS晶体管的阈值电压,ΔT是真实值与估计值之差,
    <mrow> <msup> <mi>x</mi> <mo>&prime;</mo> </msup> <mo>=</mo> <msub> <msup> <mi>x</mi> <mo>&prime;</mo> </msup> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>+</mo> <mfrac> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> <mrow> <msub> <mi>x</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> </mfrac> <mrow> <mo>(</mo> <msub> <msup> <mi>x</mi> <mo>&prime;</mo> </msup> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>-</mo> <msub> <msup> <mi>x</mi> <mo>&prime;</mo> </msup> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
    其中,xmax和xmin是训练数据中x的最大值和最小值,x’max和x’min是由训练者自己确定,Fs
    为开关块灵活性,Fcout为逻辑块输出引脚所能连接的布线轨道数目,L为线长,I为逻辑块输
    入数量;
    在训练完成后,为了使KBNN的输出处于正确的数量级,还将进行去归一化的过程;
    5)建立KBNN延时模型并训练
    基于上述已建立的FPGA-macro延时模型,结合神经网络可获得FPGA的KBNN延时模型,
    这个KBNN结构中共包含五种神经元:输入神经元、隐藏神经元、MLP输出神经元、知识神经元
    和KBNN输出神经元,输入神经元和隐藏神经元之间的权重为Ω=(ωij,i=1,2,...,m,j=
    0,1,...,11),隐藏神经元和MLP输出神经元之间的权重为Φ=(φk,k=0,1,...,m),隐藏
    神经元的激活函数和隐藏神经元的输入分别表示为公式(10)和公式(11)的形式:
    <mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mn>1</mn> <mo>+</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <msub> <mi>&gamma;</mi> <mi>i</mi> </msub> </mrow> </msup> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
    <mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mi>&gamma;</mi> <mi>i</mi> </msub> <mo>=</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>0</mn> </mrow> </msub> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mi>N</mi> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mi>K</mi> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>3</mn> </mrow> </msub> <mi>W</mi> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>4</mn> </mrow> </msub> <mi>L</mi> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>5</mn> </mrow> </msub> <mi>I</mi> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>6</mn> </mrow> </msub> <msub> <mi>F</mi> <mrow> <mi>c</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>7</mn> </mrow> </msub> <msub> <mi>F</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>u</mi> <mi>t</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>8</mn> </mrow> </msub> <msub> <mi>F</mi> <mi>s</mi> </msub> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>9</mn> </mrow> </msub> <msub> <mi>V</mi> <mrow> <mi>d</mi> <mi>d</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>10</mn> </mrow> </msub> <msub> <mi>V</mi> <mrow> <mi>t</mi> <mi>n</mi> </mrow> </msub> <mo>+</mo> <msub> <mi>&omega;</mi> <mrow> <mi>i</mi> <mn>11</mn> </mrow> </msub> <msub> <mi>V</mi> <mrow> <mi>t</mi> <mi>p</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
    三层MLP神经网络的输出为隐藏神经元的加权和,如公式(12)所示:
    <mrow> <msub> <mi>&Delta;T</mi> <mrow> <mi>M</mi> <mi>L</mi> <mi>P</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>&phi;</mi> <mn>0</mn> </msub> <mo>+</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msub> <mi>&phi;</mi> <mi>k</mi> </msub> <msub> <mi>y</mi> <mi>k</mi> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> </mrow>
    ΔTMLP是HSPICE仿真得到的真实值与FPGA-macro延时模型得到的估计值之差,而KBNN
    的输出则为三层MLP神经网络的输出ΔTMLP与知识神经元的输出Tknowledge之和,如公式(13)
    所示:
    TKBNN_macro=Tknowledge+△TMLP (13)。
    3.如权利要求1所述的精确快速低投入的FPGA延时估计方法,其特征是,通过FPGA-
    macro模型和HSPICE获得400组训练数据和20组测试数据,对KBNN延时模型进行训练,找到
    符合训练误差Et和验证误差Ev的权重Ω和Φ以及隐藏神经元的数量m,训练过程如下:
    1)初始化:给出训练数据,测试数据,三层神经网络模型和最大迭代次数Nmax,并对Ω,
    Φ和m赋初值,iter为迭代次数;
    2)找到三层神经网络模型的权重参数Ω和Φ,使得训练误差Et最??;
    3)对三层神经网络进行验证,用更新的Ω,Φ和测试数据计算测试误差Ev;
    4)调整m;
    如果Ev≈0或iter>Nmax,则停止训练;
    否则,iter=iter+1;
    如果Et≈0,Ev》0,则增加训练数据并返回2);
    如果Et》0,则增加隐藏神经元数量,使m=m+1并返回2)。

    说明书

    精确快速低投入的FPGA延时估计方法

    技术领域

    本发明涉及FPGA架构优化领域,特别涉及一种FPGA延时计算模型。具体讲,涉及精
    确快速低投入的FPGA延时估计方法。

    背景技术

    随着应用的多样性发展,FPGA的架构不断变化,花费在架构探索上的时间也越来
    越多。传统的方法需要通过大量的实验才能决定符合延时要求的FPGA架构。架构设计师需
    要使用电路仿真工具来测量每一种FPGA架构下的关键路径延时,再利用布局布线工具仿真
    基准电路映射到FPGA架构上的延时,并根据结果对架构性能进行评估。事实上,这种实验的
    方法不可能探索所有的架构设计,因为这将花费巨大的精力和时间,尤其是在延时仿真阶
    段。相反,基于数值分析模型的方法能够快速地评估各个FPGA架构的性能。这种方法通过数
    值分析和典型实验,利用FPGA的架构参数对FPGA岛的典型关键路径进行建模,从而实现对
    FPGA架构的快速评估。

    目前,研究人员已经基于Elmore模型建立了FPGA延时估计的数值分析模型。但是,
    Elmore模型对晶体管进行了线性等效,导致其精确度不高,而且不能直观地体现晶体管级
    参数(Vdd和Vt)对延时的影响。例如,延时随架构参数N的增大而增大,随Vdd的增大而减小,如
    果只考虑架构参数则会错过很多可能的优化结果,使结果不能达到最优。

    神经网络具有强大的学习能力,能够学习任何系统的行为,并且可以快速模拟出
    这些系统对输入做出的响应。利用大量真实的FPGA延时数据来对神经网络进行训练,可以
    得到其输入与输出之间的关系,建立FPGA的延时模型。但这种方法对神经网络过度依赖,且
    需要大量的数据支持才能获得高精确度的延时估计结果,需要在前期投入大量的时间。

    基于知识的神经网络结合了神经网络的强大学习能力和已有数值分析模型,使神
    经网络和分析模型彼此互补。所以,利用基于知识的神经网络来构建延时和FPGA架构参数
    及晶体管级参数之间的关系,是一种既可以提高模型的精度又不会显著增加估计时间的方
    法。而且相较于传统神经网络而言,基于知识的神经网络可以在较少的训练数据下得到精
    确的延时估计结果,节省了大量时间。

    参考文献:

    [1]A.M.Smith,G.A.Constantinides,P.Y.K.Cheung.FPGA architecture
    optimization using geometric programming[J].Computer-Aided Design of
    Integrated Circuits and Systems.2010,29(8):1163-1176。

    [2]I.Kuon,J.Rose.Exploring area and delay tradeoffs in FPGAs with
    architecture and automated transistor design[J].Very Large Scale Integration
    (VLSI)Systems.2011,19(1):71-84。

    [3]C.Chiasson,V.Betz.COFFE:Fully-automated transistor sizing for
    FPGAs[C].//Field-Programmable Technology(FPT),Kyoto,2013:34-41。

    发明内容

    为克服现有技术的不足,本发明旨在提出一种估计FPGA电路延时的数值分析模
    型,全面考虑影响电路延时的关键参数,允许在FPGA架构设计阶段协同探索架构级参数和
    晶体管级参数的可变性。并将延时模型与人工智能神经网络相结合,既体现和保持参数间
    的物理意义,又减少神经网络的训练数据量,实现快速、精确、低投入的延时估计。为此,本
    发明采用的技术方案是,精确快速低投入的FPGA延时估计方法,步骤如下:

    1)确定拟合参数ɑ和有效迁移率μ;

    2)将FPGA中各子电路等效为RC模型,结合FPGA架构参数,确定各子电路中每一类
    晶体管的负载电容;

    3)根据已确定好的拟合参数ɑ、有效迁移率μ和负载电容参数,对FPGA中各子电路
    分别建立延时模型,即FPGA-macro延时模型;

    4)收集训练数据,并对其进行分析和归一化;

    5)将FPGA-macro延时模型与神经网络相结合,建立KBNN延时模型并进行训练,求
    解权重Ω和Φ以及隐藏神经元的数量m使得训练误差Et和验证误差Ev最小。

    一个实例中具体步骤进一步细化为:

    1.确定拟合参数ɑ和有效迁移率μ

    首先,分别建立由10、11、12个非门串联连接的非门链,并利用电路仿真工具
    HSPICE分别测量各非门链的延时,记为τ10,τ11,τ12,通过计算得到PMOS晶体管的延时为tpmos
    =τ12-τ11,NMOS晶体管的延时为tnmos=τ11-τ10,利用公式(1)和公式(2)求得拟合参数ɑ和有
    效迁移率μ的值,(Vt1,Δt1)和(Vt2,Δt2)是在相同Vdd下得到的阈值电压和晶体管延时的组
    合,其中,We和Le分别是有效沟道宽度和长度,Vdd为供电电压,Vt为阈值电压,Ci和Cox分别代
    表负载电容和氧化电容,



    2.确定负载电容

    在获得ɑ和μ的值之后,根据连接块等效模型确定各晶体管的负载电容,连接块中
    四类晶体管的负载电容获得方法如公式(3)-(6)所示,其中,W为布线通道宽度,Fcin为逻辑
    块输入引脚所能连接的布线轨道数目,N为逻辑块中基本逻辑单元的数量,K为查找表LUT的
    输入数量,CCB,mux1,CCB,mux2和CCB,drv1,CCB,drv2分别表示连接块选择器和连接块缓冲器中晶体
    管的负载电容,其中,Cj,CBmux1,Cj,CBmux2是连接块多路选择器中晶体管的结电容,Cg,CBdrv1,
    Cg,CBdrv2和Cj,CBdrv1,Cj,CBdrv2分别是连接块缓冲器中晶体管的栅电容和结电容,Cj,localmux1是局
    部互连多路选择器中晶体管的结电容,ceil()为向上取整函数,floor()为向下取整函数:



    CCB,drv 1=Cj,CBdrv 1+Cg,CBdrv 2 (5)

    CCB,drv 2=Cj,CBdrv 2+N*K*Cj,localmux 1 (6)

    3.建立FPGA-macro延时模型

    根据已确定的参数,连接块的延时表示为公式(7)的形式,We,CB,mux1和We,CB,mux2分别
    为连接块中一级多路选择器和二级多路选择器的晶体管有效沟道宽度,We,CB,drv1和We,CB,drv2
    为连接块缓冲器中的晶体管有效沟道宽度,典型关键路径的延时由各子电路的加权和得
    到,表示为公式(8)的形式,TSB为开关块的延时,TCB为连接块延时,Tlocalmux为局部互连块延
    时,Tfeedback为反馈路径延时,Tgeneral_output为输出路径延时,TLUT为查找表延时,TLUTdrv为查找
    表缓冲器延时,权重w1-w6由各子电路出现在布局布线后的基准电路的关键路径上的次数决
    定,



    4.数据收集并进行归一化

    在训练开始之前,首先要将训练数据归一化到同一个数量级,所以对每个参数x∈
    {N,K,W,L,I,Fs,Fcin,Fcout,Vdd,Vtn,Vtp,ΔT}进行公示(9)的所示操作,其中,Vtn和Vtp分别为
    NMOS晶体管和PMOS晶体管的阈值电压,ΔT是真实值与估计值之差,


    其中,xmax和xmin是训练数据中x的最大值和最小值,x’max和x’min是由训练者自己确
    定,Fs为开关块灵活性,Fcout为逻辑块输出引脚所能连接的布线轨道数目,L为线长,I为逻辑
    块输入数量;

    在训练完成后,为了使KBNN的输出处于正确的数量级,还将进行去归一化的过程;

    5.建立KBNN延时模型并训练

    基于上述已建立的FPGA-macro延时模型,结合神经网络可获得FPGA的KBNN延时模
    型,这个KBNN结构中共包含五种神经元:输入神经元、隐藏神经元、MLP输出神经元、知识神
    经元和KBNN输出神经元,输入神经元和隐藏神经元之间的权重为Ω=(ωij,i=1,2,...,m,
    j=0,1,...,11),隐藏神经元和MLP输出神经元之间的权重为Φ=(φk,k=0,1,...,m),隐
    藏神经元的激活函数和隐藏神经元的输入分别表示为公式(10)和公式(11)的形式:



    三层MLP神经网络的输出为隐藏神经元的加权和,如公式(12)所示:


    ΔTMLP是HSPICE仿真得到的真实值与FPGA-macro延时模型得到的估计值之差,而
    KBNN的输出则为三层MLP神经网络的输出ΔTMLP与知识神经元的输出Tknowledge之和,如公式
    (13)所示:

    TKBNN_macro=Tknowledge+△TMLP (13)

    通过FPGA-macro模型和HSPICE获得400组训练数据和20组测试数据,对KBNN延时
    模型进行训练,找到符合训练误差Et和验证误差Ev的权重Ω和Φ以及隐藏神经元的数量m,
    训练过程如下:

    1)初始化:给出训练数据,测试数据,三层神经网络模型和最大迭代次数Nmax,并对
    Ω,Φ和m赋初值,iter为迭代次数;

    2)找到三层神经网络模型的权重参数Ω和Φ,使得训练误差Et最??;

    3)对三层神经网络进行验证,用更新的Ω,Φ和测试数据计算测试误差Ev;

    4)调整m;

    如果Ev≈0或iter>Nmax,则停止训练;

    否则,iter=iter+1;

    如果Et≈0,Ev》0,则增加训练数据并返回2);

    如果Et》0,则增加隐藏神经元数量,使m=m+1并返回2)。

    本发明的特点及有益效果是:

    1.相较于传统的利用实验的方法获得延时,该FPGA延时估计方法可以在短时间内
    完成延时的估计,不仅全面考虑了影响延时的参数,而且更加直观地反映了各参数与延时
    的关系,可以有效加快FPGA架构探索流程。

    2.利用基于知识的人工智能神经网络,既减少了训练数据量又提高了估计精度,
    同时还摆脱了器件模型的束缚,使延时估计更加快速灵活。

    附图说明:

    图1为本发明的设计流程图。

    图2为本发明应用流程图。

    图3为FPGA连接块晶体管级结构及等效模型。

    图4为该延时模型的神经网络结构。

    图5为实验结果对比。

    具体实施方式

    本发明提供了一种基于神经网络的融合架构级和晶体管级参数的FPGA电路延时
    估计方法,可以与架构探索流程相结合,在保证精度的条件下加快架构探索速度。具体技术
    方案如下:

    1)确定拟合参数ɑ和有效迁移率μ。

    2)将FPGA中各子电路等效为RC模型,结合FPGA架构参数,确定各子电路中每一类
    晶体管的负载电容。

    3)根据已确定好的拟合参数ɑ、有效迁移率μ和负载电容等参数,对FPGA中各子电
    路分别建立延时模型,即FPGA-macro延时模型。

    4)收集训练数据,并对其进行分析和归一化。

    5)将FPGA-macro延时模型与神经网络相结合,建立KBNN延时模型并进行训练,求
    解权重Ω和Φ以及隐藏神经元的数量m使得训练误差Et和验证误差Ev最小。

    下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整
    地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。下面将以
    FPGA子电路中的连接块为例进行说明。

    1.确定拟合参数ɑ和有效迁移率μ

    首先,分别建立由10、11、12个非门串联连接的非门链,并利用HSPICE分别测量各
    非门链的延时,记为τ10,τ11,τ12。通过计算可得PMOS晶体管的延时为tpmos=τ12-τ11,NMOS晶体
    管的延时为tnmos=τ11-τ10。利用公式(1)和公式(2)求得拟合参数ɑ和有效迁移率μ的值,
    (Vt1,Δt1)和(Vt2,Δt2)是在相同Vdd下得到的阈值电压和晶体管延时的组合。其中,We和Le
    分别是有效沟道宽度和长度,Vdd为供电电压,Vt为阈值电压,Ci和Cox分别代表负载电容和氧
    化电容。



    2.确定负载电容

    在获得ɑ和μ的值之后,根据图3所示的连接块等效模型确定各晶体管的负载电容。
    连接块中四类晶体管的负载电容获得方法如公式(3)-(6)所示。其中,W为布线通道宽度,
    Fcin为逻辑块输入引脚所能连接的布线轨道数目,N为逻辑块中基本逻辑单元的数量,K为
    LUT的输入数量。CCB,mux1,CCB,mux2和CCB,drv1,CCB,drv2分别表示连接块选择器和连接块缓冲器中
    晶体管的负载电容,其中,Cj,CBmux1,Cj,CBmux1是连接块多路选择器中晶体管的结电容,
    Cg,CBdrv1,Cg,CBdrv2和Cj,CBdrv1,Cj,CBdrv2分别是连接块缓冲器中晶体管的栅电容和结电容,
    Cj,localmux1是局部互连多路选择器中晶体管的结电容,ceil()为向上取整函数,floor()为
    向下取整函数:



    CCB,drv 1=Cj,CBdrv 1+Cg,CBdrv 2 (5)

    CCB,drv 2=Cj,CBdrv 2+N*K*Cj,localmux 1 (6)

    其它架构参数,如Fs(开关块灵活性),Fcout(逻辑块输出引脚所能连接的布线轨道
    数目),L(线长),I(逻辑块输入数量)将出现在其它子电路的负载电容公式中。

    3.建立FPGA-macro延时模型

    根据已确定的参数,连接块的延时可表示为公式(7)的形式,We,CB,mux1和We,CB,mux2分
    别为连接块中一级多路选择器和二级多路选择器的晶体管有效沟道宽度,We,CB,drv1和
    We,CB,drv2为连接块缓冲器中的晶体管有效沟道宽度。典型关键路径的延时由各子电路的加
    权和得到,可以表示为公式(8)的形式,TSB为开关块的延时,TCB为连接块延时,Tlocalmux为局
    部互连块延时,Tfeedback为反馈路径延时,Tgeneral_output为输出路径延时,TLUT为查找表延时,
    TLUTdrv为查找表缓冲器延时。其中权重(w1-w6)由各子电路出现在布局布线后的基准电路的
    关键路径上的次数决定。



    4.数据收集并进行归一化

    训练数据{N,K,W,L,I,Fs,Fcin,Fcout,Vdd,Vtn,Vtp,ΔT}有很大的数量级差异。如Fcin
    的取值是(0,1),然而W能够从几十到几百。这个巨大的差异会给训练过程的收敛增加难度,
    降低训练的KBNN模型的精度。因此,在训练开始之前,首先要将训练数据归一化到同一个数
    量级。其中,Vtn和Vtp分别为NMOS晶体管和PMOS晶体管的阈值电压,ΔT真实值与估计值之
    差。所以对每个参数x∈{N,K,W,L,I,Fs,Fcin,Fcout,Vdd,Vtn,Vtp,ΔT}进行公示(9)的所示操
    作:


    其中,xmax和xmin是训练数据中x的最大值和最小值,x’max和x’min是由训练者自己确
    定的。

    在训练完成后,为了使KBNN的输出处于正确的数量级,还将进行去归一化的过程。

    5.建立KBNN延时模型并训练

    基于上述已建立的FPGA-macro延时模型,结合神经网络可获得FPGA的KBNN延时模
    型。KBNN延时模型的结构如图4所示,这个KBNN结构中共包含五种神经元:输入神经元、隐藏
    神经元、MLP输出神经元、知识神经元和KBNN输出神经元。输入神经元和隐藏神经元之间的
    权重为Ω=(ωij,i=1,2,...,m,j=0,1,...,11),隐藏神经元和MLP输出神经元之间的权
    重为Φ=(φk,k=0,1,...,m)。其中,隐藏神经元的激活函数和隐藏神经元的输入可分别
    表示为公式(10)和公式(11)的形式。



    三层MLP神经网络的输出为隐藏神经元的权重和,如公式(12)所示:


    ΔTMLP是HSPICE仿真得到的真实值与FPGA-macro延时模型得到的估计值之差,而
    KBNN的输出则为三层MLP神经网络的输出ΔTMLP与知识神经元的输出Tknowledge之和,如公式
    (13)所示:

    TKBNN_macro=Tknowledge+△TMLP (13)

    通过FPGA-macro模型和HSPICE获得400组训练数据和20组测试数据,对KBNN延时
    模型进行训练,找到符合训练误差Et和验证误差Ev的权重Ω和Φ以及隐藏神经元的数量m。
    训练过程如下:

    1)初始化。给出训练数据,测试数据,三层神经网络模型和最大迭代次数Nmax,并对
    Ω,Φ和m赋初值,iter为迭代次数;

    2)找到三层神经网络模型的权重参数Ω和Φ,使得训练误差Et最??;

    3)对三层神经网络进行验证,用更新的Ω,Φ和测试数据计算测试误差Ev;

    4)调整m;

    如果Ev≈0或iter>Nmax,则停止训练;

    否则,iter=iter+1;

    如果Et≈0,Ev》0,则增加训练数据并返回2);

    如果Et》0,则增加隐藏神经元数量,使m=m+1并返回2)。

    当训练完成,就可以得到一个可以反复使用的延时模型。通过这个模型,设计者可
    以快速且精确地判断这个FPGA架构是否符合设计要求,同时可以实现FPGA的架构探索。

    关于本文
    本文标题:精确快速低投入的FPGA延时估计方法.pdf
    链接地址://www.4mum.com.cn/p-6021169.html
    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    [email protected] 2017-2018 www.4mum.com.cn网站版权所有
    经营许可证编号:粤ICP备17046363号-1 
     


    收起
    展开
  • 四川郎酒股份有限公司获第十二届人民企业社会责任奖年度环保奖 2019-05-13
  • 银保监会新规剑指大企业多头融资和过度融资 2019-05-12
  • 韩国再提4国联合申办世界杯 中国网友无视:我们自己来 2019-05-11
  • 中国人为什么一定要买房? 2019-05-11
  • 十九大精神进校园:风正扬帆当有为 勇做时代弄潮儿 2019-05-10
  • 粽叶飘香幸福邻里——廊坊市举办“我们的节日·端午”主题活动 2019-05-09
  • 太原设禁鸣路段 设备在测试中 2019-05-09
  • 拜耳医药保健有限公司获第十二届人民企业社会责任奖年度企业奖 2019-05-08
  • “港独”没出路!“梁天琦们”该醒醒了 2019-05-07
  • 陈卫平:中国文化内涵包含三方面 文化复兴表现在其中 2019-05-06
  • 人民日报客户端辟谣:“合成军装照”产品请放心使用 2019-05-05
  • 【十九大·理论新视野】为什么要“建设现代化经济体系”?   2019-05-04
  • 聚焦2017年乌鲁木齐市老城区改造提升工程 2019-05-04
  • 【专家谈】上合组织——构建区域命运共同体的有力实践者 2019-05-03
  • 【华商侃车NO.192】 亲!楼市火爆,别忘了买车位啊! 2019-05-03
  • 七星彩手机版杳看开七星彩 大小双单技巧 大白鲨赢钱技巧规律 体彩大乐透专家预测号码 双色球专家预测选号 内蒙古时时综合走势图 北京赛pk10走势图软件 pk10本金一万如何赢20% 北京pk赛车官网开结果 时时彩怎样玩稳赚 6码复式二中二高手资料 前三组选包胆是什么意思? pk10红马计划软件手机版 赛车6码怎么玩不连错 玩极速赛车的方法 2019年70期开什么马