快手-多模态大模型实习生-一面 可灵视频生成团队

情况: √ 一面结束没多久就反馈了大概1个小时不到

1、为什么大模型会出现复读机现象

2、从Transformer介绍大模型的前世今生

3、请介绍你的论文和实习的项目

4、为什么使用多头注意力

5、sft过后的模型提取不了prompt,视而不见,能不能通过cot来缓解(推理速度变慢)

6、leetcode-最长回文子串

基本都是简历面

反问:

1、具体是干嘛的

沿着可灵团队的多模态,做一些多模态的理解,也是业务导向的发论文和出成果#快手##大模型实习##算法岗面试#
全部评论
接好运
点赞 回复 分享
发布于 04-09 16:39 广东

相关推荐

今天老师为大家梳理了10道RAG大模型必备面试题,供各位同学参考。1️⃣Q1:如何评估RAG生成结果的质量?A1:① 事实准确性(Factual Accuracy):对比标准答案;② 引用精确度(Citation Precision):生成内容与引用文档的相关性;③ ROUGE/L等自动指标(需谨慎,可能与事实性脱钩)。2️⃣Q2:如何优化检索的召回率(Recall)?A2:① 使用Query扩展(同义词替换/LLM改写);② 多向量表示(HyDE生成假设文档再检索);③ 调整分块策略(重叠分块/多粒度分块)。3️⃣Q3:RAG如何处理多文档冲突信息?A3:①  让LLM总结共识点并标注分歧(提示词控制);② 按文档来源权威性加权(如医学指南>普通文章);  ③ 返回多视角答案(需明确说明冲突存在)。4️⃣Q4:如何解决“检索偏好”问题(Retrieval Bias)?A4:当检索结果质量差时强制生成会导致错误。解决方案:① 训练检索评估模块过滤低质结果;② 引入回退机制(如返回“无答案”);③ 迭代检索(Re-Rank或多轮检索)。5️⃣Q5:如何优化长文档检索效果?A5:① Small-to-Big检索:先检索小分块,再关联其所属大文档;② 层次检索:先定位章节,再章节内分块检索;③ 图结构:用知识图谱关联文档片段。6️⃣Q6:解释HyDE(Hypothetical Document Embeddings)原理?A6:让LLM根据Query生成假设性答案,将其作为“伪文档”嵌入向量,再用该向量检索真实文档。解决Query与文档表述差异问题。7️⃣Q7:什么是迭代检索(Iterative Retrieval)?A7:多轮检索:首轮检索结果输入LLM生成初步答案,再以该答案为新Query二次检索,循环直到满足条件。适合复杂推理场景。8️⃣Q8:Self-RAG的核心创新点是什么?A8:引入可学习检索信号:模型自主决定何时检索(Retrieve on Demand),并生成特殊Token(如[Retrieval]、[No Retrieval])控制流程。9️⃣Q9:RAG如何适配实时更新知识库A9:① 检索器使用近实时索引(如Elasticsearch增量更新);② 生成器无需重训,但需监控新数据分布偏移。1️⃣0️⃣Q10:用户查询“2025年诺贝尔奖获得者”,但知识库只更新到2024年,RAG如何应对?A10:设计策略:① 检索器返回最新文档(2024年);② 生成器明确回答“截至2024年数据,最新获得者为XX,2025年结果尚未公布”;③ 添加时间敏感性警告。🍊如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
3
11
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务