腾讯LLM算法二面-暑期实习
整体面试还是不错的,但是没后续了,不知道是哪里出了问题
1. 项目拷打
2. 介绍Attention,从数学角度解释一下为啥注意除以\sqrt{d_k}?
3. Agent多轮对话中有哪些难点
4. SFT数据集构建策略
5. 介绍DPO、GRPO、PPO区别
6. 如果评估RAG,评估RAG是否work
7. 说一下大模型全参数微调的显存计算?说一下SMoE怎么推理的?相比于稠密模型有什么优点?
8. 最近看了什么论文和技术报告?推荐算法和大模型有什么地方可以结合呢?
9. 手撕:搜索排序数组
1. 项目拷打
2. 介绍Attention,从数学角度解释一下为啥注意除以\sqrt{d_k}?
3. Agent多轮对话中有哪些难点
4. SFT数据集构建策略
5. 介绍DPO、GRPO、PPO区别
6. 如果评估RAG,评估RAG是否work
7. 说一下大模型全参数微调的显存计算?说一下SMoE怎么推理的?相比于稠密模型有什么优点?
8. 最近看了什么论文和技术报告?推荐算法和大模型有什么地方可以结合呢?
9. 手撕:搜索排序数组
全部评论
好八股 大佬要不要考虑我司 详情见我主页帖子
Attention 除以 sqrt (d_k) 和 SMoE 推理的问题我也在准备,蹲个大佬解答💡
感谢楼主分享腾讯 LLM 面经!这些问题太硬核了,备战算法岗很有用👍
相关推荐
点赞 评论 收藏
分享
03-24 23:51
门头沟学院 测试开发 点赞 评论 收藏
分享
查看7道真题和解析