【手机端-推理框架】Tensorflowlite/mnn/ncnn

简介

  1. Tensorflowlite
    TF lite是为了把训练好的模型部署应用在移动端或者嵌入式端。TensorFlow lite的高效,体现在对模型进行了精简,并且基于移动平台对神经网络的计算过程组了基于指令集和硬件的加速。

  2. ncnn&mnn
    两者都是为了手机端进行轻量化推理实现的轮子。并且针对推理进行加速(常见的Winograd加速),一些操作层的融合加速。相比于tf、caffe和torch原生的推理模块,这样的框架表现出强大的加速效果。

  • MAC 、Windows、Linux等桌面系统 用openvino ,intel自家优化x86,有量化
  • 手机上选择,ncnn mnn tnn等arm opencl的优化成果。阿里腾讯,移动端切身所需。需要附加量化工具
  • 带GPU的桌面系统,用tensorrt,nv自家的,还有量化
全部评论

相关推荐

不想投了,不想面了,不想找了感觉自己像个小丑
用微笑面对困难:不是你去大学生就业平台看看啊,boss很多就是冲kpi的
点赞 评论 收藏
分享
评论
1
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务