FaceNet在FPGA等硬件平台上的实现

本文主要介绍将训练好的网络模型,移植到FPGA等硬件平台上所必须的准备工作。
不涉及具体的用C语言重新编写卷积操作、RAM存储等设计,本人做的只是辅助工作=-=。

项目简介

论文地址FaceNet: A Unified Embedding for Face Recognition and Clustering

将在服务器上训练好的FaceNet模型移植到FPGA等硬件平台上,实现人脸的检测推断过程。要想实现上述操作,必须先进行下面2个操作:

  1. 模型参数的提取:解析 FaceNet 的网络结构, Restore 训练好的模型,提取各网络层参数。
  2. 参数的量化压缩:模型参数量巨大(浮点),为了节省空间及方便计算,将参数量化为 8 位的
    定点数。

参数的提取

在提取参数前,我们先通过可视化工具Tensorboard解析了一下FaceNet的网络结构,它主要包含5个大模块:

block35

  1. Branch_0:32个 1 × 1 1 \times 1 1×1卷积
  2. Branch_1:32个 1 × 1 1 \times 1 1×1卷积、32个 3 × 3 3 \times 3 3×3卷积
  3. Branch_2:32个 1 × 1 1 \times 1 1×1卷积、32个 3 × 3 3 \times 3 3×3卷积、32个 3 × 3 3 \times 3 3×3卷积
  4. Mixed:将Branch_0、Branch_1和Branch_2连接起来
  5. Conv:32个 1 × 1 1 \times 1 1×1卷积

block17

  1. Branch_0:128个 1 × 1 1 \times 1 1×1卷积
  2. Branch_1:128个 1 × 1 1 \times 1 1×1卷积、128个 1 × 7 1 \times 7 1×7卷积、128个 7 × 1 7 \times 1 7×1卷积
  3. Mixed:将Branch_0和Branch_1连接起来
  4. Conv:128个 1 × 1 1 \times 1 1×1卷积

block8

  1. Branch_0:192个 1 × 1 1 \times 1 1×1卷积
  2. Branch_1:192个 1 × 1 1 \times 1 1×1卷积、192个 1 × 3 1 \times 3 1×3卷积、192个 3 × 1 3 \times 1 3×1卷积
  3. Mixed:将Branch_0和Branch_1连接起来
  4. Conv:192个 1 × 1 1 \times 1 1×1卷积

reduction_a

  1. Branch_0:192个 3 × 3 3 \times 3 3×3(stride=2)卷积
  2. Branch_1:192个 1 × 1 1 \times 1 1×1卷积、256个 3 × 3 3 \times 3 3×3卷积、384个 3 × 3 3 \times 3 3×3(stride=2)卷积
  3. Branch_2 3 × 3 3 \times 3 3×3,步长为2的最大池化
  4. Mixed:将Branch_0、Branch_1和Branch_2连接起来

reduction_b

  1. Branch_0:256个 1 × 1 1 \times 1 1×1卷积、384个 3 × 3 3 \times 3 3×3(stride=2)卷积
  2. Branch_1:256个 1 × 1 1 \times 1 1×1卷积、256个 3 × 3 3 \times 3 3×3(stride=2)卷积
  3. Branch_2:256个 1 × 1 1 \times 1 1×1卷积、256个 3 × 3 3 \times 3 3×3卷积、256个 3 × 3 3 \times 3 3×3(stride=2)卷积
  4. Branch_3 3 × 3 3 \times 3 3×3,步长为2的最大池化
  5. Mixed:将Branch_0、Branch_1、Branch_2和Branch_3连接起来

总的网络结构如下所示

  1. Conv2d_1a:32个 3 × 3 3 \times 3 3×3,stride=2的卷积
  2. Conv2d_2a:32个 3 × 3 3 \times 3 3×3的卷积
  3. Conv2d_2b:64个 3 × 3 3 \times 3 3×3的卷积
  4. MaxPool_3a 3 × 3 3 \times 3 3×3,stride=2的最大池化
  5. Conv2d_3b:80个 1 × 1 1 \times 1 1×1的卷积
  6. Conv2d_4a:192个 3 × 3 3 \times 3 3×3的卷积
  7. Conv2d_4b:256个 3 × 3 3 \times 3 3×3,stride=2的卷积
  8. repeat:5个block35模块
  9. Mixed_6a:1个reduction_a模块
  10. repeat1:10个block17模块
  11. Mixed_7a:1个reduction_b模块
  12. repeat2:5个block8模块
  13. block8:1个block8模块
  14. Logits:平均池化、flatten、Dropout

代码实现

代码中会用到float_to_bin()这一个量化函数,下面会有所介绍

import os
from tensorflow.python import pywrap_tensorflow
import  numpy as np
import math
import float_bin
import xiaoshu_bin
Max = 35.004695892333984          #参数的最大值
Min = -11.588409423828125         #参数最小值
Mean = -0.0007627065894155365     #参数均值

#导入模型
checkpoint_path = os.path.join('facenet_lmq/20170512-110547', "model-20170512-110547.ckpt-250000")
#读取模型参数
reader = pywrap_tensorflow.NewCheckpointReader(checkpoint_path)
#获取参数中所有的key、value值
var_to_shape_map = reader.get_variable_to_shape_map()

#循环存储每一个key(tensor名字)对应的value
for key in var_to_shape_map:
    par_name=str(key)
    par_final_name =par_name.replace('/','_') #特殊字符替换
    file_path = 'D:/PycharmProjects/faceface/bb/'+par_final_name+'.txt' #创建存储路径
    par_shape=reader.get_tensor(key).shape         # Tensor维度
    par_value=reader.get_tensor(key).flatten()     #value拉平,方便下面的量化操作
    # print(type(par_value))
    # print(par_value.shape)
    list =[]
    for index in range(len(par_value)):  #对每一个tensor的value量化
        par_value[index] =(par_value[index]-Mean)/(Max-Min) #归一化
        if ('moving_variance' in par_name):       # 特殊的tensor需要进行一些处理(BN)
            # for index in range(len(par_value)):
            par_value[index] = 1/(math.sqrt(par_value[index]))
        list.append(float_bin.float_to_bin(par_value[index]))  #调用量化函数float_to_bin()
    np.savetxt(file_path,np.array(list),fmt='%s',header=str(par_shape))  #存储量化后的参数
    print('done')
    #print(type(par_value))

参数的量化压缩

训练得到的模型参数都是浮点型的,为了节省在硬件上的存储空间并加速计算,我们将参数量化到了8位的定点数。主要包含2个函数:float_to_bin()xiaoshu_bin()

  1. float_to_bin()
import numpy as np
import xiaoshu_bin
import math
def float_to_bin(innum,n):
    global innum_abs,res_nint_array
    list = []
    min = 2**(-n)              #小数位取n位后,8位定点数能表示的最小值
    max = 2**(7-n)-min         #小数位取n位后,8位定点数能表示的最大值
    innum_abs = abs(innum)     #不管正负,都按正数处理
    if (innum_abs<min):        #如果表示的数小于最小,按最小处理
        innum_abs = min
    if (innum_abs>max):        #如果表示的数大于最大,按最大处理
        innum_abs =max
    nint = math.floor(innum_abs)     #取整,分割小数部分和整数部分
    nf = innum_abs-nint              #小数部分
    res_nint = bin(int(nint)).replace('0b','')   #整数部分直接调用bin函数处理
    nint_num = len(res_nint)                     #整数部分的二进制表示占的位数长度
    res_nint_array =np.zeros(nint_num)           #创建矩阵
    #print(nint_num)
    res_nf = xiaoshu_bin.xiaoshu(nf,n)           #小数部分调用xiaoshu_bin()函数
    if (innum>=0):                               #原数为正数,二进制第一位为0
        c =0
        num_add =8-n-nint_num                    #除去小数位和整数位占的二进制位数后,还剩几位
        num_add =np.zeros(num_add)               #补0
        for value in res_nint:
            res_nint_array[c] =int(value)        #整数部分二进制
            c= c+1
        #@final =[num_add,res_nint_array,n,res_nf]
    else:                                            #原数为负数,二进制第一位为1
        d =0
        num_add = 8-n-nint_num
        num_add = np.zeros(num_add)
        num_add[0] =1
        for value in res_nint:
            res_nint_array[d] =int(value)
            d= d+1
        #final = [num_add,res_nint_array,n,res_nf]
    final_bin =np.hstack((num_add,res_nint_array,res_nf))  #最终表示
    for bin_value in final_bin:
        list.append(str(int(bin_value)))                 #字符串输出
    final_bin_value =''.join(list)
    return final_bin_value
#print(float_to_bin(-4.5,3))
  1. xiaoshu_bin()
import numpy as np
def xiaoshu(innum, n):
    global N
    N =n                       #小数部分占的位数
    count =0
    temp = innum
    reco =np.zeros(N)        #创建全0矩阵

    if (innum>1) or (N==0):   #不是小数
        print('Error!')
        return
    while(N):                #未超过小数部分的位数
        count =count+1
        if (count>N):
            N = 0
            return reco
        temp =temp*2              #小数部分不断的乘2
        if (temp>1):
            reco[count-1] =1
            temp = temp-1
        elif (temp==1):
            reco[count-1] =1
            N =0
        else:
            reco[count-1] =0

    return (reco)
#print(xiaoshu(0.0525,4))

量化结果展示

InceptionResnetV1/Block8/Branch_0/Conv2d_1x1/BatchNorm_beta这一tensor为例:

量化前后对比

全部评论

相关推荐

03-08 18:11
门头沟学院 Java
Java抽象小篮子:海投就完事了,简历没什么问题,最大问题是学历
点赞 评论 收藏
分享
04-24 13:51
已编辑
西安电子科技大学 Java
👋个人背景:211计算机混子,代码能力一般,春招急头白脸参加央国企最后拿下这两个offer👏offer1:中广核工程公司驻陆丰仪控调试,待遇19+4,离家1800km💯offer2:张家口卷烟厂待遇未知,应该有13个(猜测),离家500km牛油们帮忙选一下,家里人不是很喜欢卷烟厂这个offer,但是蜀黍烟草局下岸了
鸿雁于飞:先说offer1:中广核工程公司驻陆丰仪控调试(待遇19+4) 中广核这艘央企大船还是很稳的,集团综合效益稳居央企前列。但你得搞清楚,这个19+4的"19"是总包,不是到手数——招聘宣传待遇里把所有能算的都算进去了,饭卡福利积分啥的全包含,有牛油分享实际到手大概打七折。试用期到手可能就四五千的水平,转正后基本工资4800左右,其余靠绩效、年终、大修费撑着。不过核电的工作环境有点"牢笼感"——核电站位置偏僻,远离繁华都市。工程公司是承包商性质,干活比业主公司累,而且大概率要经常出差,有的岗位年出差天数100天以上。最大问题是你这1800km的距离过于离谱,核电员工工作强度最小的时候一周也就回一次家,离得远回家成本高,夫妻感情和亲子关系都是现实考验。说白了:高薪是拿青春和生活换的。 再来看offer2:张家口卷烟厂(待遇约13个) 张家口卷烟厂是河北中烟下属三家卷烟厂之一,河北中烟主打的"荷花"系列连续多年位居全国高端卷烟品牌销量前列。烟草系统薪资由基本工资+绩效+年终奖构成,综合年薪普遍显著高于当地平均水平,六险二金齐全,福利拉满。有人问"13个是不是太平平无奇了"——关键张家口是四线城市,生活成本低,这13万的购买力相当于深圳的二十多万。离家500km,开车半天到家,周末回趟家完全可行,幸福感直接上两个档次。中广核的牛油说了句大实话: "哪个核电站好?永远是离家近的那个最好。" 选烟厂同理。 但是,卷烟厂的坑你得清楚: 首先卷烟厂和烟草局不一样,卷烟厂是生产操作类岗位,很多要三班倒。报考条件明确写了要能"胜任夜班工作和长时间站立工作"。一线操作工每天盯着流水线卷烟,工作内容高度重复,有入职的人描述为"食之无味弃之可惜"。有牛油直言"卷烟厂和商业性质的烟草公司不一样,前者很坑很累"。其次你家里人不是不喜欢,而是担心你这211计算机科班出身,进了烟厂干操作工,技能会快速退化,未来如果行业改革,技术壁垒不高,转行比较困难。等你干两年再跳出来,技术栈全忘干净了,回头再去敲代码,发现连应届生都卷不过。 老牛油的灵魂三问: 1. 你是更怕穷,还是更怕想家? 如果特别恋家的人跑1800km之外,第一年哭鼻子的概率高达80%。陆丰那地方偏僻单调,核电基地又远又闷,闲下来除了打游戏没啥娱乐,社交圈也窄。找个对象都费劲——牛油亲测核电站"狼多肉少"。 2. 你的代码能力有多"一般"? 如果真的一般,仪控调试和你专业匹配度不算高,这活儿主要是工程改造设计、现场实施管理、在建机组设计审查等,偏工程向而非纯软开。干两年后跳回互联网赛道,竞争力不一定有明显提升。反倒是烟厂不需要你写代码,进去就是稳定躺平。 3. 烟草局下岸这事儿会不会让你耿耿于怀? 如果烟草局是你第一志愿,烟厂只是plan B,那得想清楚:进去了可能每天看着天花板想"如果当初去了烟草局该多好",这种内耗比钱少还折磨人。如果你能接受"反正都是烟草系统,先进去再说"的心态,那倒无所谓。 一句话总结: 如果年轻想拼想闯做技术积累,中广核虽然累和远,但简历上央企核电的金字招牌确实有含金量,加上到手收入在这两个选项里确实更高,考虑到你个人经济情况和家庭状况,假如家里不需要你常回去照顾,家里有兄弟姐妹帮手分担,那先去核电待三四年,积累经验再跳槽也不失为一步棋。 如果想安稳过日子离家近当"人上人",烟厂低线生活成本加持,加上稳定的编制和福利体系,在张家***得滋润,幸福感吊打陆丰。尤其家里人是那种离不开你的,有烟厂的稳定且离家近,比任何高薪都实在。
点赞 评论 收藏
分享
评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务