权重剪枝(Weight Pruning):移除绝对值小的权重连接
量化(Quantization):将FP32权重转换为INT8或更低精度
知识蒸馏(Knowledge Distillation):用大模型指导训练小模型
增加模型的隐藏层数量
这道题你会答吗?花几分钟告诉大家答案吧!
扫描二维码,关注牛客网
下载牛客APP,随时随地刷题