中科曙光-c++研发-二面

1. 自我介绍
2. 项目介绍
3. 端侧部署大模型做的移植工作
4. kv cache的管理
5. 如何优化大模型的部署推理加速
6. 推理框架的设计
7. 计算图的设计
8. 量化的原理
9. 量化出现过大的误差该如何处理
10. 量化算子是如何计算的,计算图会发生哪些变化

聊了一下职业发展和目标城市,一共30分钟
#高性能计算#
#高性能计算面经#
#牛客创作赏金赛#
全部评论
佬,一面面经有吗?
点赞 回复 分享
发布于 2024-10-11 08:04 上海
9.23二面到现在还没结果
点赞 回复 分享
发布于 2024-09-29 16:08 北京
佬base哪,我也二面完没动静了
点赞 回复 分享
发布于 2024-09-26 19:55 天津
什么时候一面的呀
点赞 回复 分享
发布于 2024-09-26 13:44 天津
佬,你是昨天面的吗,发测评让你做了吗
点赞 回复 分享
发布于 2024-09-26 11:40 陕西
友友是线上还是线下呀
点赞 回复 分享
发布于 2024-09-26 11:07 北京

相关推荐

03-23 20:09
已编辑
百度_高级研发工程师
刚面完一把大厂的 AI 核心业务线,遇到个懂行的总监,一直在大模型微调这块给我挖坑,估计想看我是不是那种只会调第三方 API 的“外包型开发”。顺手把面试过程复盘一下,供后端转 AI 方向的兄弟们参考。一、 避坑:千万别在简历上乱吹“全量微调”很多后端兄弟为了简历好看,上来就写自己主导了全量微调(Full Parameter Fine-tuning)。这在懂行的人听来挺扯的,全量微调极其烧钱,动辄几百张 A100 显卡,普通业务线哪来这个算力和预算去给你折腾。面试时我直接兜了底:结合咱们真实的业务场景,我只参与了指令微调(SFT)和参数优化。其实大厂现在勒紧裤腰带,最看重的就是“花小钱办大事”,精准踩中降本增效和 ROI 才是正解。二、 被追问的深水区:怎么防“灾难性遗忘”后来聊到把公司的私有业务数据喂给开源大模型时,总监顺理成章地问到了“灾难性遗忘”——模型学了公司的业务黑话,结果连基础的逻辑推理都不会了。应对这个,我切入了用正则化(Regularization)做权重约束的方案。作为 Java 开发,能把这俩概念用大白话解释清楚,面试官基本就认可你的算法底子了:L1 正则化 (Lasso): 核心在于惩罚项 \lambda \sum |w|。它的特性是会产生稀疏矩阵,能把大模型里很多不重要的特征权重直接清零。我结合了他们公司的端侧场景聊:在智能硬件上部署模型,内存和算力死贵。利用 L1 的稀疏性可以大幅压缩模型体积,在不怎么掉精度的情况下,保住端侧的推理速度。L2 正则化 (Ridge): 核心是 \lambda \sum w^2。它不会把权重变 0,而是让其变得平滑。大模型的底座参数是跑了万亿 Token 炼出来的完美状态,加新知识时,L2 就像个限流器,防止底座权重发生剧烈漂移。这样既吸收了业务知识,又不会过度拟合。三、 找准后端的生态位:不抢算法的活最后面试官试探性地问:“既然算法原理这么熟,那这微调的训练代码是你用 Python 写的吗?”这绝对是个坑。做后端的一定要守住自己的边界,不能瞎揽活,我当时直接拉回 Java 主场:“炼丹跑 PyTorch 脚本主要是算法团队在搞。作为后端,我在微调链路里的核心价值是做‘数据工程化’。大家都知道 Garbage in, Garbage out,微调的上限全看数据质量。我主要用 Java 跑高并发的 ETL 任务,从 MySQL/ES 里把真实的业务日志抽出来,洗掉敏感词和废话,组装成严格的 {"instruction": "...", "input": "...", "output": "..."} 格式。没有后端的这条数据流水线,算法团队连干净的‘饲料’都拿不到。”总结:后端面 AI 岗位,最吃香的画像其实是:懂点算法底层逻辑(知道显存怎么省、遗忘率怎么控),但核心精力全扎在工程落地(清洗海量数据、保障系统并发)上的务实派。希望对大家有帮助。
查看3道真题和解析
点赞 评论 收藏
分享
03-29 15:47
已编辑
郑州大学 Java
面试机会还是那么少,不过也几个推进到了终面,不知道结果如何。星期一某量化(50-100亿)一面1 :上来先一个hot100 的hard2:拷打百度实习3:拷打物联网研究院实习无八股,整体体验非常好,已过星期二拼多多 二面1:询问是否投错岗位2:介绍冯诺依曼体系3:用户态内核态4:进程线程区别5:   进程通信方式6:多线程竞争共享资源怎么办7:http从服务器发送到主机全流程8:socket流程9:IO多路复用10: hashmap的结构11:MySQL索引数据结构12:为什么用B+树13:courrenthashmap原理14:Java对象的生命周期15:有哪些垃圾回收器16:100万个数,内存不足的排序方法算法:两个非hot100的easy整体感觉非常简单,问的比较常规,算法也比较简单,已过星期四某量化(50-100亿)二面1:拷打物联网研究院实习2:最有成就感的事3:实习学到了什么4:拷打百度实习5:短期记忆长期记忆6:什么是记忆涌现面试官有点冷漠哈哈,不知道结果如何蚂蚁一面1:模型微调数据源哪来2:如何部署满血ds3:有没有写过算子优化推理4:整体微调流程5:集群通信如何处理6:如何将模型量化到端侧7:拷打百度实习8:nl2sql的各种场景题9:提示词是什么样比较好10:多agent上下文如何处理11:什么是static12:什么是final13:什么是arraylist和linkedlist14:什么是hashmap15:currenthashmap16:线程池参数17:场景题设计线程池18:1200万数找中位数无手撕,面的很爽,面试官语气很好,我说出解决方案也非常有反馈,问题也不难,希望可以通过星期五拼多多 三面1:拷打百度实习无手撕,聊的比较好,希望可以过更新,星期天接到hr面邀约,星期一hr面总结面试机会太难得了,这周只有三家给了机会面试,其他的好多简历挂了,找实习真的是看运气呀😭😭,感觉有面试是最难的
27届实习投递记录
点赞 评论 收藏
分享
攒攒人品! 1.项目拷打2.vision-language 对齐是 joint embedding 的?,那做了哪种对齐?有做 hard negative mining 吗3.所有视角共享 encoder 吗?如何防止view collapse?4.semantic space是如何保证cross-modal consistency的5.用diffusion model做动作策略,是怎么建模action space的6.如果多个diffusion模型组合,用了 gating 机制还是 uncertainty-aware ensemble?那 uncertainty 是怎么量化的?有对比过 epistemic 和 aleatoric 吗?7.怎么防止action drift?有没有引入 consistency regularization或者temporal smoothness loss?8.在surgical robotics里policy failure cost 很高,是怎么做risk-aware training 的?有没有加入 CVaR loss10.模型泛化能力是靠数据多样性还是结构归纳偏置?能列出你设计中的 inductive bias 吗?对 unseen 手术任务怎么泛化11.surgical scene 变化很大,怎么办12.你说MAE 是做关键帧 reconstruction,那帧选择怎么做?具体打分逻辑是怎么样的13.有没有做 token-level saliency analysis?你怎么知道模型真的关注了 surgical tool 而不是 background?部署是在 ARM 上还是 X86?有没有模型并行?多线程和多进程各负责什么14.做多模态感知融合时,视觉、语言、触觉(如果有)延迟不同,怎么对齐的15.整个pipeline的E2E latency是多少?瓶颈在哪你说中间用了 LQR,你 gain matrix 是 constant 吗?有没有做 gain scheduling?基于什么指标调的16.控制系统稳定性你怎么保证?有没有做过 Lyapunov 函数证明17.做过 trajectory optimization 吗?是基于 collocation 还是 direct shooting18.假设你有个 policy 输出波动很大,你会考虑在 policy 层加高通滤波器还是在 loss 层加 penalty?为什么?19.diffusion policy 是连续动作空间,那你是建模 joint distribution 还是 marginal20.语言指令不是 deterministic 的,你们是直接用 language embedding 吗?有没有考虑language-conditioned latent variable model?
查看21道真题和解析
点赞 评论 收藏
分享
评论
3
23
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务