淘天-三面 4.16 感觉有点暖?

面试前一分钟 从电话面改成了视频面试 另一个HR面和这个时间重了,我给推了来面淘天,你不要不知好歹
面试官人还不错 也很友善 倒是感觉他有点困哈哈哈 一直打哈欠 搞得我也想打 
经过二面的拷打,狠狠看了两天的消息队列和JUC,结果一个没问
不过一直引导面试官问我最擅长的这些部分,所以他也没怎么问到哈哈
无八股拷打(算是结合项目八股) 无手撕 (8场面试就两场手撕 我无敌啦)
希望就就此结算啦 看在我为牛客贡献了这么多面经的情况下 就让我过吧!!!! 许愿OC 爱牛油们,帮我积攒一下好运

(我英文不好,打错单词知道是什么意思就好啦)
1.自我介绍
2.你后面要考研么?
3.FunctionCall怎么实现的?
4.说说Langchain这个框架的整体设计思路,整体流程
5.memory模块怎么实现的呢?
6.LLM和tool是怎么配合的?怎么选择和调用的?
7.对比过Manus么? Manus源码看过么?阿里的SpringManus了解过么?
8.网盘项目你学习到什么技术?
9.为什么要分片上传?你怎么分的片?
10.分布式相关的技术了解过么?
11.你觉得你哪方面的底层原理了解的比较好?(引导回大模型这里,省得问我JUC)
12.TRansfomer底层说说?参数?QKV你说说?自注意力机制介绍?怎么生成下一个字的?自回归?
闲聊时刻!
1.有用大模型解决什么实质的问题么?
2.Java语言是自学的么?为什么学Java?(踩了坑说感觉IOC,DI非常神奇,然后就问了我底层实现,答得一般)
3.推荐你看看Spring源码相关的书籍,源码,视频啥的只能帮助你了解一个大概......
4.我看你写了很多中间价,哪个你觉得比较深入?redis如何做到这么高效的?
5.你觉得C语言为什么就这么高效?和Java有什么不同?与什么优势? (答的不太好,忘光了,不过面试官只是笑笑)
6.小米训练营是个什么玩鹰?学到了啥?
7.你学习怎么样?Web相关得有什么理解么?Session Cookie有什么了解么?底层原理是什么?用过么?
8.你其他公司有什么在流程么?有拿到Offer么?
9.你家在哪里呀?日后打算在在哪里?
10.为什么不读研呢?没考虑过么?
11.自己有写过一些除项目之外的代码么?代码啥的能看到么?
12.主动请缨该它展示了一下AI项目,演示了我准备好的四个用例,还好AI没发疯,整体效果还不错
13.这个项目你写了多久的时间?主动展示了一下我的学习能力XXXX
14.我们就在杭州的阿里总部?问了下核心么,面试官有点小傲娇,全世界的商品都走我们这,你说核不核心(傲娇脸)

许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC许愿OC
#牛客AI配图神器##淘天##淘天26届春招#
全部评论
1 回复 分享
发布于 2025-04-16 13:03 湖北
佬做的什么项目啊
点赞 回复 分享
发布于 2025-04-20 14:47 黑龙江
佬是哪个部门哇
点赞 回复 分享
发布于 2025-04-19 21:57 陕西
佬二面后多久约的三面
点赞 回复 分享
发布于 2025-04-17 17:46 北京
祝佬 oc
点赞 回复 分享
发布于 2025-04-16 17:26 浙江
强!!!接好运
点赞 回复 分享
发布于 2025-04-16 13:03 湖北

相关推荐

2025-11-20 18:15
山东大学 算法工程师
1.实习介绍2. Lora 原理(核心是低秩分解:将原始权重更新近似为两个低秩矩阵乘积,减少参数量,保留主导方向,训练高效)3.了解 DeepSpeed 吗,ZeRO -1, ZeRO -2和 ZeRO3分别做了哪些优化(1优化优化器状态,2优化梯度,3切分参数,全面节省显存)4. Qwen的模型结构是怎么样的,相比于 LLaMA,DeepSeek 有什么区别(Qwen采用GQA+SwiGLU+RMSNorm,和LLaMA架构非常相似,差异在训练数据和tokenizer中文支持更好;DeepSeek只用MoE/MLA架构,Qwen系列主要是Dense模型)5.怎么缓解大模型的幻觉问题(RAG,RLHF对齐,事实监督)6.大模型的 MoE 结构相比于 Dense 结构训练的难点在什么地方,DeepSeekMoE为什么效果好,有什么值得我们借鉴创新点(MoE面临负载不均衡、训练不稳定问题;DeepSeekMoE通过细粒度专家和共享专家设计提升稳定性和效果)7.知道FP16和BF16有什么区别吗,包括FP32和INT8这些,在训练大模型的时候,应该怎么选择(FP16精度高但易溢出,BF16动态范围大;训练常用BF16混合精度,推理用INT8量化加速)8.讲-下 RLHF 的流程,写-下 PPO和 DPO的 Loss表达式(训练奖励模型后用PPO/DPO优化策略:PPO Loss: policy ratio + KL 约束/ DPO Loss: logit preference diff + sigmoid binary loss)9.对于超长上下文业界一般是怎么做的,你知道 Qwen是怎么做的吗(业界常用ROPE 变体/滑动窗口注意力/稀疏注意力等:Qwen使用YaRN和窗口注意力扩展上下文)10.开放题:你觉得目前大模型的上限在哪里(推理能力、长期记忆、具身交互和能耗效率,需要架构创新和多模态融合突破)11.代码:152.乘积最大子数组
查看9道真题和解析
点赞 评论 收藏
分享
评论
4
7
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务