Shade_Ignis level
获赞
16
粉丝
5
关注
0
看过 TA
73
门头沟学院
2026
推荐算法
IP属地:北京
暂未填写个人简介
私信
关注
继续来分享下之前的面经~欢迎友好讨论,信息共享实习经历拷打1.上一个实习公司是干啥的?2.怎么切换的转人工?3.业务具体场景是什么?4.指标怎么做的?5.有没有评估过具体是哪些优化点导致转人工率下降?6.之前模型幻觉率有多高?是否对比过前后幻觉差异?7.客户并不知道模型出现幻觉,为什么幻觉会直接导致转人工?8.“无法解决用户问题” 比较宽泛,具体是哪些问题无法解决?9.长期记忆对当前轮次有什么实际意义?10.项目流程中有没有出现失败情况?一般是什么样的失败?11.项目中的知识检索是怎么做的?12.模型可以边思考边调用工具吗?13.ReAct 框架里 COT 的 thinking 部分可以自动调用工具吗?14.逻辑已经很明确,为什么不用 workflow 而要用复杂架构Agent?15.结束语、招呼语这类场景也需要做RAG知识检索吗?16.实习里的长短期记忆是怎么实现的?17.实际有没有遇到 lost in the middle 问题?多少文本长度会出现?18.你们用的是哪个模型?内部还是外部接入的?19.如何提升模型的意图识别能力?20.用什么模型、什么方式训练的意图分类模型?21.一共定义了多少个意图?22.意图识别模型的输出格式是什么?23.会不会出现意图名称输出不标准、多字少字的情况?代码手撕最长公共前缀
查看24道真题和解析
0 点赞 评论 收藏
分享
给我面没招了,发点面经攒攒人品~1* 项目拷打2* 项目的数据来源是什么?你是如何确定优化目标的?3* 比如数据从 100 条扩充到 1.2 万条,是否全通过自动化生成?生成的样本具体是什么样的?举个例子说明一下生成前后的对比4* 怎么保证自动化生成数据的正确性呢5* 在通过调整参数直到模型回答正确为止的过程中,是否意味着生成的CoT中存在错误逻辑?6* 经过数据清洗后,最终用于SFT的有效数据量是多少?7* 在做微调时,除了 LoRA 是否对比过其他的微调算法8* 你是如何评价微调效果的?测试集的比例是多少?微调前后的准确率分别是多少?原有的模型性能保留了多少?9* LLM常用的结构是什么?10* 说一下Transformer 的整体结构11* 目前主流大模型最常用的位置编码是什么?。12* 写一下多头注意力机制的数学公式。13* 公式中为什么要除以 \sqrt{d_k}?其对梯度消失或梯度爆炸有什么影响?14* 在 Transformer 的 Encoder 和 Decoder 中,哪些部分是可以并行计算的,哪些不可以?15* 除了 LoRA,你还了解哪些微调方法?16* 大模型训练通常使用什么损失函数17* 在机器学习基础中,二分类问题、多分类问题以及回归问题分别使用什么损失函数?18* 你了解哪些优化算法19* 模型训练中出现过拟合的常用解决方案有哪些?
查看18道真题和解析
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务