晋级面霸 level
获赞
60
粉丝
23
关注
0
看过 TA
352
山东大学
2026
算法工程师
IP属地:山东
暂未填写个人简介
私信
关注
2025-11-20 18:15
山东大学 算法工程师
1.实习介绍2. Lora 原理(核心是低秩分解:将原始权重更新近似为两个低秩矩阵乘积,减少参数量,保留主导方向,训练高效)3.了解 DeepSpeed 吗,ZeRO -1, ZeRO -2和 ZeRO3分别做了哪些优化(1优化优化器状态,2优化梯度,3切分参数,全面节省显存)4. Qwen的模型结构是怎么样的,相比于 LLaMA,DeepSeek 有什么区别(Qwen采用GQA+SwiGLU+RMSNorm,和LLaMA架构非常相似,差异在训练数据和tokenizer中文支持更好;DeepSeek只用MoE/MLA架构,Qwen系列主要是Dense模型)5.怎么缓解大模型的幻觉问题(RAG,RLHF对齐,事实监督)6.大模型的 MoE 结构相比于 Dense 结构训练的难点在什么地方,DeepSeekMoE为什么效果好,有什么值得我们借鉴创新点(MoE面临负载不均衡、训练不稳定问题;DeepSeekMoE通过细粒度专家和共享专家设计提升稳定性和效果)7.知道FP16和BF16有什么区别吗,包括FP32和INT8这些,在训练大模型的时候,应该怎么选择(FP16精度高但易溢出,BF16动态范围大;训练常用BF16混合精度,推理用INT8量化加速)8.讲-下 RLHF 的流程,写-下 PPO和 DPO的 Loss表达式(训练奖励模型后用PPO/DPO优化策略:PPO Loss: policy ratio + KL 约束/ DPO Loss: logit preference diff + sigmoid binary loss)9.对于超长上下文业界一般是怎么做的,你知道 Qwen是怎么做的吗(业界常用ROPE 变体/滑动窗口注意力/稀疏注意力等:Qwen使用YaRN和窗口注意力扩展上下文)10.开放题:你觉得目前大模型的上限在哪里(推理能力、长期记忆、具身交互和能耗效率,需要架构创新和多模态融合突破)11.代码:152.乘积最大子数组
查看9道真题和解析
0 点赞 评论 收藏
分享
2025-11-12 16:10
山东大学 算法工程师
1.实习介绍2.简历拷打3.除了MMOE还用过其他的方案吗?cgc或者ple有尝试过吗?4.如何解决mmoe输出特征一样,专家的参数最终会趋于一致的现象?在网络参数随机初始化的情况下,不会发生问题中提到的问题。核心原因在于数据存在multi-view,只要每一个expert网络参数初始化是不一样的,就会导致每一个expert学到数据中不同的view。5.多任务loss调整中回归损失会主导训练任务是怎么处理的?在我的场景中是采用包序累积多分类替代了回归,也可以通过映射label上界或者禁止回传的方法,都试过。6.transformer的参数量是多少?层数(L):Encoder/Decoder 的堆叠层数注意力头数(H):多头注意力 的并行任务数隐藏层大小(D):特征向量的维度序列长度(T):输入/输出的最大 token 数 公式:总参数量 ≈ L×(4D^2+2D×H×T)7.介绍一下encoder和decoder?Encoder(编码器)作用:将输入序列(如文本)转换为上下文相关的表示向量。Decoder(解码器)作用:根据编码器输出生成目标序列(如翻译或回答)。8.在你场景中用的是二阶段的训练如何调整成一阶段的?代码 给一个整数数组a,对a中的相邻整数进行浮点除法,如a=[2,3,4],即为2/3/4 在任意位置添加任意数目的括号,来改变算数的优先级,使得值最大,输出表达式
查看8道真题和解析
0 点赞 评论 收藏
分享
2025-11-12 00:10
山东大学 算法工程师
1. 手撕 合并区间2. 八股1)请介绍 Transformer 的结构组成及各部分作用,在长序列时空数据中,2)如何降低 Transformer 的计算复杂度?常见的稀疏注意力变体有哪些?3)GNN的消息传递机制是怎样的?在时空图中,如何结合时间信息编码节点特征?你接触过哪些时空 GNN 模型?4)LoRA微调的原理是什么?秩 r 的选择会对模型表现产生什么影响?5)RAG的完整流程,在时空出行数据场景里,构建向量检索库时如何处理时间衰减对召回的影响?6)强化学习在 Agent 优化中的应用,结合出行推荐 Agent,你会如何设计 Reward 函数?3. 项目1)微调时的训练数据是怎么构建的?如何保证样本多样性和质量?2)在 RAG+时空知识图谱的 Agent 系统中,知识图谱更新的机制是怎样的?是怎样保证实时性的?3)在大规模轨迹数据下是怎么做负采样(Negative Sampling)的?4)训练 LoRA 模型时,你是如何选择冻结层的?依据是什么?5)在高并发查询 Agent 系统中,你会如何优化召回和生成阶段的延迟?4. 开放题1)大规模 Agent 系统在多线程/多进程场景下的资源调度策略如何设计?2)如果你要在 GPU 资源有限的条件下同时提供推理和微调服务,如何做资源分配和任务调度以保证时延和吞吐?
查看14道真题和解析
0 点赞 评论 收藏
分享
2025-11-11 19:05
山东大学 算法工程师
一、手撕 题目:给定一个字符串 s 和一个整数 k,每隔 k 个字符反转一次,返回最终字符串。简单很快就写出来了二、八股1.自注意力机制是什么?计算复杂度怎么算?吟唱: 通过query-key相似度计算权重,对value加权求和,建模长距离依赖。O(n平方)n为序列长度。2.KV-Cache的如何加速推理?继续吟唱:生成时缓存已经计算过的kv,避免重复计算。3.LoRA的原理是什么?与P-Tuning、Adapter的异同点?LoRA的参数选择对模型性能有何影响?三连吟唱:原理是冻结原始权重,训练低秩矩阵参数。异同在于lora训练参数,p-tuning只优化了prompt嵌入。4.介绍下RLHF的基本流程,与DPO的差异是什么?主动吟唱:RLHF三段式,sft用高质量数据集微调,rm训练对比学习模型用于打分,ppo通过rl泛化增强。dpo直接优化偏好数据,省去rm和ppo。5.分布式训练中的TP、PP、DP分别是什么?TP按tensor维度拆分,PP按网络层数分段流水线执行,DP数据并行,复制模型副本分散计算6.flash-attention的原理是什么?这里回答没太好,只讲了通过内存层次结构什么的减少I/O瓶颈7.DeepSeek的MoA架构与MoE有何区别?moe通过门控机制选择专家子网络,参数规模增加但训练难度大。moa则用多个agent回答,通过数据迭代优化,缓解偏科。8.如何处理数据不均衡问题?上采样小样本,课程学习三、项目与实习1.agent实习主要负责哪些模块?动作规划,memory经验,evaluation pipeline,后训练,很多模块都参与了,面试官也挺震惊哈哈。这里聊比较多就不po了。2.记忆系统如何实现视觉-语言特征对齐?clip映射到联合embbeding上3.如果视觉模块误判,如何通过语言纠错?检测矛盾关键字,通过反馈触发重试。4.具体讲讲怎么构建evaluation pipeline的?做了数据爬取,版本控制,llm打分
查看13道真题和解析
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务