斑马智行大模型面经含答案版

攒人品中...
1.  双向mamba vs 因果注意力:因果注意力平方复杂度、仅捕前文,短序列优;mamba线性复杂度、双向捕全局,适配车端低算力长序列场景。
2.  shift实现:拆分不重叠窗口→固定步长移位→跨窗计算融合,通过张量切片/滚动实现,提升全局信息捕捉能力。
3.  vllm注意力分数:分析过!用于定位瓶颈,通过阈值过滤无效计算、FlashAttention优化,适配车端低延迟需求。
4.  prefill vs decoder阶段:prefill预处理提示词、缓存键值对;decoder逐token自回归生成,复用缓存,二者协同保障座舱交互推理效率。
5.  降低prefill耗时:稀疏注意力过滤无效计算+动态批处理提GPU利用率+FlashAttention算子适配,结合车端芯片优化,耗时降35%左右。
6.  两阶段耗时对比:prefill单次耗时高(随输入长度增长);decoder单步快,总耗时受生成长度影响大,座舱场景易累计超时。
7.  PPO流程:采样生成样本→奖励模型评分算优势值→裁剪约束更新参数→迭代优化,监控KL散度,适配座舱交互模型微调。
8.  GRPO及变体:PPO优化版,无需价值函数、省显存;IGRPO增量更新稳训练,SGRPO融合MoE降算力,适配车端场景。
全部评论

相关推荐

刚刷到字节跳动官方发的消息,确实被这波阵仗吓了一跳。在大家还在纠结今年行情是不是又“寒冬”的时候,字节直接甩出了史上规模最大的转正实习计划——ByteIntern。咱们直接看几个最硬的数,别被花里胡哨的宣传词绕晕了。首先是“量大”。全球招7000多人是什么概念?这几乎是把很多中型互联网公司的总人数都给招进来了。最关键的是,这次的资源分配非常精准:研发岗给了4800多个Offer,占比直接超过六成。说白了,字节今年还是要死磕技术,尤其是产品和AI领域,这对于咱们写代码的同学来说,绝对是今年最厚的一块肥肉。其次是大家最关心的“转正率”。官方直接白纸黑字写了:整体转正率超过50%。这意味着只要你进去了,不划水、正常干,每两个人里就有一个能直接拿校招Offer。对于2027届(2026年9月到2027年8月毕业)的同学来说,这不仅是实习,这简直就是通往大厂的快捷通道。不过,我也得泼盆冷水。坑位多,不代表门槛低。字节的实习面试出了名的爱考算法和工程实操,尤其是今年重点倾斜AI方向,如果你简历里有和AI相关的项目,优势还是有的。而且,转正率50%也意味着剩下那50%的人是陪跑的,进去之后的考核压力肯定不小。一句话总结: 27届的兄弟们,别犹豫了。今年字节这是铁了心要抢提前批的人才,现在投递就是占坑。与其等到明年秋招去千军万马挤独木桥,不如现在进去先占个工位,把转正名额攥在手里。
喵_coding:别逗了 50%转正率 仔细想想 就是转正与不转正
字节7000实习来了,你...
点赞 评论 收藏
分享
评论
点赞
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务