近期面经总结

最近比较忙,面试也没停,不记得太多了,写一些我觉得比较有意思的。来源淘天 度小满 快手 字节等
1. Bert 的结构和预训练任务
2.Bert 的 MLM 任务和 word2vec 的上下文预测中间有啥区别?
3. 知不知道 rag 用的 embedding 和 bert 的区别?
4. rag 检索会有啥优化?
5. lora 微调在显存上主要节省的是哪部分空间?(优化器)
6. 微调数据集怎么做的采样?怎么优化?
7. 强化学习的一些,DPO 的一些优化
8. attention 有哪些优化?(其实不太懂,我就说 GQA MQA)
其他的大部分八股都是很常见的,主要是最近被连续问了两次 embedding 相关,可以看看 bge 的预训练任务

代码
比较常规吧,有意思的是二分类器
输入 100 bs 的 64 维度输入和 Y label,自己实现 sigmoid BCE layerNorm, 先过一个 Linear 再过 layerNorm 再过 Linear 再计算 loss 返回
全部评论
佬,现在都啥进展呀,,感觉现在都在泡池子呀。
2 回复 分享
发布于 2024-09-27 19:13 北京
rag 用的 embedding 和 bert 的区别,就是rag的会多一个检索的微调吧
1 回复 分享
发布于 2024-10-16 18:08 四川
佬 第三题是 bert给的是token level的embedding但是rag用的embedding比如说openai的直接输出整句的么
点赞 回复 分享
发布于 2024-12-23 06:18 美国
佬,lora 微调在显存上主要节省的是哪部分空间?(优化器),不对呀
点赞 回复 分享
发布于 2024-09-27 21:20 北京

相关推荐

稚名不带撇:感觉学院本就已经废了,不是能不能进公司的问题了,是根本就没有啥面试,boss沟通了一千多,回我消息的才89,面试的才二十几个,但基本上都是小公司点击就送,唯一一次有1000+的公司面试,面的很好全回答出来了,项目这块个人感觉也说的不错,甚至面试官最后还直接给我介绍公司业务和看公司系统这些,介绍的也比较详细,说了40分钟到一个小时左右,说怕给我offer我不喜欢这种模式啥啥啥的,鼠鼠以为应该稳了,但是最后还是挂了,我问我们老师他说这种情况大概率是学历比你高的出现了,虽然可能问题没有全回答出来,但是学历把你爆了
秋招,不懂就问
点赞 评论 收藏
分享
评论
12
47
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务