bug杀手锏 level
获赞
98
粉丝
31
关注
0
看过 TA
1035
昆明理工大学
2026
算法工程师
IP属地:云南
暂未填写个人简介
私信
关注
04-02 16:40
已编辑
昆明理工大学 算法工程师
先上数据 投递 32家 2月下旬到3月上旬笔试 做了15场 含测评收到面试 4家第一场笔试 2月28日第一场面试 3月15日笔面间隔 15天具体经历2月底那周连着做了三场笔试 拼多多 美团 携程 一场接一场 做完人都是麻的然后就开始了漫长的等待3月初那几天 我每天刷牛客看别人笔试完多久约面 有人说三天 有人说一周 我等到第五天 邮箱除了广告啥也没有 等到第七天 开始怀疑是不是笔试挂了 等到第十天 已经做好全部石沉大海的准备了3月10号那天心态确实崩了一下 15场笔试换不来一场面试 说不怀疑自己是假的转折发生在3月15号下午两点我在图书馆刷题 手机震了一下 看了一眼 邮件加短信 某中厂 做云的 base北京 约一面看到面试邀请四个字的时候 我手抖了一下 不是因为激动 是等了太久 突然来了反而不敢相信 我把手机扣在桌上缓了十秒才拿起来仔细看然后3月16 17 18 三天连着来了3家 华为 荣耀 一个小厂 就跟公交车似的 等半天不来 一来来一串笔面间隔时间线 给大伙参考中厂A 笔试完第5天约面华为 笔试完第8天约面 性格测评后第3天荣耀 笔试完第11天约面小厂 笔试完第3天约面一点经验第一 笔试完别干等 把错题啃透等面试那15天 我把笔试做过的题全部过了一遍 尤其是编程题没AC的 不管是因为边界条件没处理好还是思路卡壳 我都重新理了一遍 在IDE里跑通才罢休 后来面试真的有被问到 笔试那道题你当时怎么想的 现在有没有更好的解法 如果不是提前复盘过 现场肯定卡壳第二 邮箱和短信都看 别漏了我有一家的短信进了拦截 邮件没提醒 幸亏那几天心里不踏实 每天手动翻一遍垃圾箱才发现 那家后来面到了二面第三 别跟别人比进度 没有意义我室友投得比我晚 面得比我早 那几天看他准备面试我还在等 确实难受 但后来想明白了 每个人投的岗位 部门 HC情况都不一样 别人三天约面不代表你挂了 我翻牛客去年的帖子 有人笔试完两周才收到面试 最后还是拿了offer第四 笔试做多了真的有肌肉记忆15场笔试不是白做的 到后面 选择题的八股套路基本摸清了 编程题的输入输出格式也不用反复试了 每场能省出10到15分钟给难题 最后拿到面试的那几家 我推测笔试成绩应该都不差 因为面试官在自我介绍时说了句 你笔试成绩还不错第五 记录每一场的笔试题我建了一个Excel 每场笔试完立刻记下考了哪些知识点 哪道题没做出来 哪个题做得不顺 15场记下来 发现考得最多的就是动态规划 二叉树 哈希表 后面我就重点刷这几类 命中率确实高了转化率供参考15场笔试 换 4个面试 转化率不到百分之27 按这个比例 如果你做了10场还没动静 可能不是你不行 是概率还没轮到你 再投几家 再做几场 总会来的最后整理了一个笔试复盘模板 需要自取公司名称:拼多多笔试日期:2月28日AC情况:2/3卡壳的题目:第三题动态规划卡壳原因:边界条件没处理好复盘后是否掌握:是祝我们都上!
做完笔试后你收到面试了吗...
0 点赞 评论 收藏
分享
面了一个多小时,整体感觉还不错,欢迎佬交流~1.zero1232.你有没有实际对比过普通 DDP 和 ZeRO-1?比如 4 卡情况下,把 optimizer state 或 gradient 切成 shard 之后,显存大概能省多少?3.CPU offload4.BF 16 和 FP 165.在 DDP 多卡训练 中,通常一个 epoch 的定义是:所有 GPU 协同遍历一次完整数据集,且每个样本在该 epoch 内只被采样一次。但在实际训练中,我们往往是 按 step 数控制训练与保存 checkpoint 的,比如每 5000 step 保存一次模型,这样 checkpoint 很可能落在 某个 epoch 的中间。在恢复训练时,我们一般可以恢复 model optimizer lr step,但 DataLoader / Sampler 本身是无状态的,不会自动恢复到 epoch 中间的位置。在从一个 epoch 中间的 checkpoint 恢复训练时,有没有办法保证数据采样能够“无缝衔接”,继续完成当前 epoch,而不是重新打乱或重复采样数据?6.当 checkpoint 保存发生在 epoch 中间时,Trainer 是否能正确恢复 DataLoader 的采样状态?如果不能,工程上通常如何保证 resume 后的数据连续性?你是怎么实现的,是否用了 Accelerate或者huggingface 的Trainer7.DDP中当同时涉及 DataLoader 和 Sampler 时,shuffle 应该由哪一层来负责?8.PyTorch 的 DistributedSampler 内部是如何根据 num_replicas 和 rank 生成每个进程各自的数据 index 列表的?它如何在不进行进程间通信的前提下,确保多进程训练时样本划分互不重叠且覆盖完整数据集?9.GQA10.RMSNorm和LN11.在实际训练系统中,从吞吐量和资源利用的角度考虑,tokenization 更合理的放置位置是在 Dataset/DataLoader 阶段,还是作为模型 forward 前的一部分?12.手撕省份数量
查看11道真题和解析
0 点赞 评论 收藏
分享
查看8道真题和解析
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务