金山云大模型算法实习

07.01左右开的四个大模型相关的实习岗位,07.07上午投简历,下午就打电话约面,0710下午一面,紧接着当天晚上约第二天下午二面。
面试完到现在都没消息,二面还说尽快给我回信😡,好急。
一面针对实习经历聊天,deepseed实现并行相关知识点,手撕是口述的场景题,允许我开代码辅助(我直接共享屏幕,用内嵌的gpt写的),还是第一回见。
二面问的论文和实习,没有手撕,感觉聊的也比较好。
但怎么还不发消息😡
#面试问题记录# #金山云#
全部评论
后续是下午刚收到电话,准备入职了😭
4 回复 分享
发布于 07-15 15:20 四川
补一下一面的场景题,问的是现在需要划分训练验证测试集,数据量很大的情况下,无法全部读入内存的前提下怎么实现划分。 我一开始写了个按字典,直接按key去划分,但是面试官说这么读取的话还是太大了,因为字典本身也很大。。。没回答上来,不停道歉,然后人家面试官说没关系,不要紧
1 回复 分享
发布于 07-18 12:13 四川
大佬,你的这个手撕代码的时候是你把需求给了gpt生成了?
点赞 回复 分享
发布于 07-25 15:12 湖北
你好 请问实习能给多少一天呀
点赞 回复 分享
发布于 07-23 16:12 四川
请问学长实习和论文什么水平才够用啊
点赞 回复 分享
发布于 07-20 18:35 河南

相关推荐

1.实习介绍2. Lora 原理(核心是低秩分解:将原始权重更新近似为两个低秩矩阵乘积,减少参数量,保留主导方向,训练高效)3.了解 DeepSpeed 吗,ZeRO -1, ZeRO -2和 ZeRO3分别做了哪些优化(1优化优化器状态,2优化梯度,3切分参数,全面节省显存)4. Qwen的模型结构是怎么样的,相比于 LLaMA,DeepSeek 有什么区别(Qwen采用GQA+SwiGLU+RMSNorm,和LLaMA架构非常相似,差异在训练数据和tokenizer中文支持更好;DeepSeek只用MoE/MLA架构,Qwen系列主要是Dense模型)5.怎么缓解大模型的幻觉问题(RAG,RLHF对齐,事实监督)6.大模型的 MoE 结构相比于 Dense 结构训练的难点在什么地方,DeepSeekMoE为什么效果好,有什么值得我们借鉴创新点(MoE面临负载不均衡、训练不稳定问题;DeepSeekMoE通过细粒度专家和共享专家设计提升稳定性和效果)7.知道FP16和BF16有什么区别吗,包括FP32和INT8这些,在训练大模型的时候,应该怎么选择(FP16精度高但易溢出,BF16动态范围大;训练常用BF16混合精度,推理用INT8量化加速)8.讲-下 RLHF 的流程,写-下 PPO和 DPO的 Loss表达式(训练奖励模型后用PPO/DPO优化策略:PPO Loss: policy ratio + KL 约束/ DPO Loss: logit preference diff + sigmoid binary loss)9.对于超长上下文业界一般是怎么做的,你知道 Qwen是怎么做的吗(业界常用ROPE 变体/滑动窗口注意力/稀疏注意力等:Qwen使用YaRN和窗口注意力扩展上下文)10.开放题:你觉得目前大模型的上限在哪里(推理能力、长期记忆、具身交互和能耗效率,需要架构创新和多模态融合突破)11.代码:152.乘积最大子数组
查看9道真题和解析
点赞 评论 收藏
分享
评论
4
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务