京东实习 大模型算法一面分享

攒攒人品!有面试过同岗的朋友欢迎评论区交流
1. LoRA 微调原理:微调哪些层?常用训练参数设置:epoch、learning_rate 等。
2. RAG 切片实现方法:如何设计和优化切片过程?
3. 微调中的常见问题与解决方案:面试官特别关注实际踩过的坑和解决思路。
4. Embedding 召回优化策略:如何提高召回效果和模型效率?
5. 复读问题分析:原生模型复读不严重,微调后却复读明显,原因何在?感觉最近的模型不咋重复啊。
6. 领域知识注入:LoRA 微调能否有效注入领域知识?效果如何?
7. 大模型幻觉(Hallucination)解决方案:如何缓解模型幻觉问题,稳定输出?
8. 优化器考点:Loss 除以 10 和学习率除以 10 有什么区别?
9. Self-Attention 的线性变换 (QKV):为什么要做 QKV 线性变换?起初真懵了,为什么,你说为什么?
10. 机器学习懂么?
11. Self-Attention 中的 Softmax:为什么需要 Softmax?
算法题挑战
题目: 给定两个字符串,比如 s1=acdk, s2=ckad,每次可以将 s1 中任意一个字母移到末尾,问最少移动次数使得 s1=s2。如果无法匹配,返回 -1。
全部评论
这是应用开发还是算法开发
点赞 回复 分享
发布于 昨天 23:01 辽宁
问的似乎看着还行
点赞 回复 分享
发布于 昨天 18:54 北京
攒人品!祝楼主面试顺利,早日拿到 offer🚀
点赞 回复 分享
发布于 昨天 15:50 上海
京东大模型面经太全了!狠狠码住,感谢分享🙌
点赞 回复 分享
发布于 昨天 15:50 江苏

相关推荐

评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务