大模型算法实习一面-腾讯

继续来分享下之前的面经~欢迎友好讨论,信息共享

1.介绍一下你的实习经历和主要工作内容。

2.在微调大模型时,你使用过哪些框架?它们的优缺点分别是什么?

3.CLIP 模型的 zero-shot 能力是如何实现的?它在多模态任务中的应用有哪些优势?

4.Transformer 中 Pre-Norm 和 Post-Norm 的设计差异是什么?对模型训练稳定性和性能有何影响?

5.在生成式大模型中,为何通常采用 Decoder-only 架构而非 Encoder-Decoder 结构?

6.请描述大模型中自然语言理解模块的具体实现方案,包括语义解析和意图识别的关键技术。

7.针对 Transformer 模型推理过程,你会采用哪些优化手段?

8.请阐述RAG的核心原理,并说明如何通过 RAG 缓解大模型的幻觉问题。

9.vLLM 框架的核心优化原理是什么?其在动态批处理和显存管理上有哪些创新设计?

10.请对比 RLHF、PPO、DPO 算法的技术差异、优缺点及适用场景。
全部评论

相关推荐

xtu大迫杰:偶遇校友,祝校友offer打牌
点赞 评论 收藏
分享
评论
点赞
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务