算法实习面经-小红书多模态一面

继续来分享下之前的面经~欢迎友好讨论,信息共享
1.如何构建高质量预训练数据?如何用LLM进行数据合成?Self-instruct与RLAIF的区别?如何避免模型自我强化偏见?
2.如果你负责设计一个千亿级MoE模型:如何设计并行策略?如何控制通信成本?3.如何做RLHF阶段的稳定训练?PPO在RLHF中的核心不稳定点?
4.如果训练中出现:GPU利用率低、显存碎片化严重,你会如何排查与优化?
5.RLHF训练中,奖励模型(RM)的训练难点是什么?如何避免奖励模型过拟合,确保其能准确反映人类偏好?
6.数据清洗过程中,如何区分有效数据与噪声数据?针对不同类型的噪声(如文本错误、图像模糊),有哪些针对性的处理方法?
7.在大模型训练过程中,如何优化显存占用和训练速度?
8.你在过往项目中,有没有基于业务需求,提出过创新的技术方案或优化思路?如何推动方案落地并验证效果?
9.代码题:合并两个有序链表和二叉树中的最大路径和
全部评论

相关推荐

继续来分享下之前的面经~欢迎友好讨论,信息共享1.什么是大语言模型的涌现能力?目前对该现象的研究有哪些发现?2.什么是 Embedding?词嵌入和句嵌入有何不同?3.大语言模型中的 Tokenization 是如何工作的?不同模型的分词算法有何差异?4.简述大语言模型中的 Prompt Engineering 技巧,如何设计有效的提示词提升模型输出质量?5.对比 Zero-Shot、Few-Shot 和 In-Context Learning,它们在大语言模型中的应用场景和局限性分别是什么?6.什么是 LoRA?它在大语言模型微调中的优势和原理是什么?7.大语言模型的 RLHF 训练流程是什么?它存在哪些潜在风险?8.介绍一下大语言模型中的知识蒸馏,它如何用于压缩模型体积?9.DeepSeek 优化了哪些?为什么不用 PPO,而是用 GRPO?10.对比大语言模型的增量推理和传统推理方式,增量推理的优势和实现难点是什么?11.大语言模型在推理时出现幻觉现象的原因是什么?有哪些缓解方法?12.大语言模型的长文本处理能力有限,目前有哪些技术可以缓解这一问题?13.什么是大语言模型的上下文窗口?扩展上下文窗口对模型性能有何影响?14.目前多模态大语言模型是如何融合文本与图像信息的?15.如何评估大语言模型的性能?常见的评测指标和基准数据集有哪些?16.单个 LLM 能否帮助用户完成完整行程规划,比如从出行到酒店都订好票?
点赞 评论 收藏
分享
继续来分享下之前的面经~强度好大,俺不中咧。。。。1.实习中多智能体系统包含几个智能体?它们之间如何交互?2.意图识别模型需要识别多少个意图?3.750B 模型用于什么场景?4.实习中 Qwen3VL 模型是多少 B 的?用于什么场景?5.在实习中,你主要的贡献是什么?6.检索环节做了哪些优化?7.答案生成环节做了哪些优化?8.是否做了 SFT 或强化学习相关工作?在哪个环节做的?9.SFT 过程中是否对类别标签做了清洗或修正?10.强化学习的样本量是多少?11.基础模型经常分类分不准的案例有哪些?12.在校项目中,为什么用对话数据来增强数据集?13.在校项目任务的输出可以简单描述并举例吗?14.单智能体能否完成在校项目相关工作?为什么要使用多智能体?15.LangGraph 相对其他开源智能体编排工具的优点是什么?16.在现有场景中是否需要用到 LangGraph 的状态管理功能?17.如何理解 Long-term Memory 的实现方式?18.若将电商场景中用户的购买、点击、兴趣等信息设计为长期记忆,有什么想法?19.Context Window 能否储存大量电商交互信息?如何解决存储问题?20.推理时若将大量 Memory 以 Token 形式给到大模型,Token 长度过长该如何处理?21.强化学习有哪些常用技巧?22.若通过 SFT 进一步提升模型准确率,常用的手段有哪些?23.SFT 的理想数据量是多少?如何确定?24.SFT 数据分布一般怎么取?为什么选择该分布而非其他分布?
点赞 评论 收藏
分享
评论
1
4
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务