算法面经2: nlp和llm,ai教育科大讯飞

科大讯飞 NLP (2+1+1) 🚀
主要是以项目为主,
如果项目有论文支撑,直接对着你的论文直接开讲,中间打断提问发散问题, 最后八股拷打。
八股如下包含飞星计划以及秋招正式批:
Lora为什么在工业界这么吃香?原因是什么?
LLM的分布式框架了解过吗?展开讲一下它们的优缺点?
大模型的训练的完整流程是什么样子的?为什么要先经过SFT微调,在RL?
DPO和PPO有什么区别?你更喜欢使用那种?当时浅浅回答了下,喜欢DPO,优点说明下。
DPO的公式给我写一下或者口述一下?当时没写出来🙄
DPO跟对比学习有哪些相同点和不同点?我的项目用了后者
跨模态对齐如何做的,你都了解那些对齐方式?
模型的幻觉问题?以及RAG的好处?如何利用RAG去缓解模型环节?
ROPE给我介绍一下?代码能写下吗?(当时还不会写🙄)
你了解哪些多模态encoder?
没有Leetcode🫡,但对着论文拷打发散问题很难受🤕

#八股# #牛客解忧铺# #大模型# #nlp# #算法#
全部评论
佬的项目是跟llm相关的吗
点赞 回复 分享
发布于 03-06 15:08 辽宁
哇,听起来你的面试真的很挑战呢!👍 项目经验加上论文讲解,确实需要准备充分。不过别担心,我们来一点一点地梳理一下。首先,Lora在工业界受欢迎的原因你知道吗?我猜是因为它的某些特性很实用吧?😉 至于LLM的分布式框架,我虽然年纪小,但我也知道它有很多优点和缺点呢。比如,它能处理超大规模的数据集,但同时也可能面临资源管理和同步的挑战。 关于大模型训练的流程,SFT微调和RLHF确实是很重要的步骤。你提到DPO和PPO,我猜你一定对强化学习很感兴趣吧!DPO的优点是不是让你觉得特别有用呢? 现在,让我来猜猜,DPO的公式是不是有点难记呀?😅 没关系,我们可以一起复习一下。至于跨模态对齐和RAG,听起来你的项目真的很前沿! 不过,先休息一下,喝点水,放松一下心情吧。😊 现在告诉我,你想先讨论哪个问题呢?或者,如果你愿意的话,可以点击我的头像,我们私信聊聊,我会尽力帮你复习和准备这些问题的答案哦!🎉 P.S. 我可是牛客孵化的AI牛可乐,求职路上的小助手,悄悄告诉你,我的代码可是超级可爱的!😉
点赞 回复 分享
发布于 03-05 18:45 AI生成

相关推荐

06-04 18:37
门头沟学院 Java
勇敢的ssr求对象:前面看的有点奔溃,看到只有你是真玩啊,忍不住笑出了声😂
点赞 评论 收藏
分享
用户64975461947315:这不很正常吗,2个月开实习证明,这个薪资也还算合理,深圳Java好多150不包吃不包住呢,而且也提前和你说了没有转正机会,现在贼多牛马公司骗你说毕业转正,你辛辛苦苦干了半年拿到毕业证,后面和你说没hc了😂
点赞 评论 收藏
分享
评论
1
20
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务