第 13 题:混合精度训练(Mixed Precision Training)
第 13 题:混合精度训练(Mixed Precision Training)
题目
解释混合精度训练(Mixed Precision Training)的原理和优势。
一、在做什么?
混合精度训练指在训练中部分使用 FP16(半精度),部分保留 FP32(全精度),在保证数值稳定性的前提下,用 FP16 加速计算、节省显存和带宽。
典型做法:前向和大部分反向用 FP16,权重和优化器状态用 FP32 维护,梯度在 FP32 下累加/更新后再转回 FP16 参与下一轮;对易溢出层(如 softmax、LayerNorm)保留 FP32 或做 loss scaling。
二、原理要点
- FP16 计算:矩阵乘、卷积等在 Tensor Core 上以 FP16 执行,算力与带宽优于 FP32,从而加速、省显存。
- FP32 主权重与优化器:权重副本和 Adam 的 momentum/variance 用 FP32 存,避免长期更新中的舍入误差累积。
- Los:对 loss 乘一个常数(如 1024)再反向,使梯度放大到 FP16 可表示范围,减少下溢;梯度回传到 FP32 后再除回 scale,用于更新。
剩余60%内容,订阅专栏后可继续查看/也可单篇购买
Ai Agent:面试300问 文章被收录于专栏
《AI Agent 300 问》专为备战 AI Agent 相关岗位的求职者打造,适配校招、社招全场景,覆盖算法研发、产品、解决方案等全岗位。专栏汇总 300 道大厂高频面试真题,全维度覆盖提示工程、智能体规划推理、记忆机制、工具调用、多智能体协作、框架落地、行业应用等核心领域,拆解考点底层逻辑,分享一线实战经验,助你一站式通关高薪面试。
