首页 / 算法岗面试
#

算法岗面试

#
13039次浏览 217人互动
此刻你想和大家分享什么
热门 最新
算法求职简历该怎么写大模型微调
结合最近辅助修改的简历及项目,老师总结了部分大模型微调简历的踩雷点。🙅‍♂️错误示范:在 x任务中,获取 xxx 条数据,通过规则 or 脚本清洗出 x 条数据,然后微调 y 大模型,在业务上提升 x 个点。✍🏻原因:大模型微调的平台是现成的,基模是现成的,体现不出核心能力。✅应该怎么写?首先介绍业务背景:业务是一个销售对话业务,机器人是销售,代替真人,直接面对用户。我们会给模型设定任务,任务是 prompt 。步骤1️⃣.提取训练数据问题:1.真人通话每通电话任务是未知的,我们训练数据是任务+通话的 pair 对。2.真人通话很乱,与客户的对话是各种交叉的,导致 asr 后并不是一人一轮。解决方案:1.首先通过大模型 prompt 对该通电话提取任务,得到任务+ pair 对。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根据以上任务和真人对话,让大模型编写出通话内容。提问,为什么要编写而不是直接用?步骤2️⃣.制定训练数据集问题:1、正常的对话内容,前面几句和后面几句基本上一致的。都是问候和拜拜,但是也有一些差异。2、因为都是相似场景,虽然任务不同,但是很多场景语义很相似。解决方案:1、基于轮次的权重采样:通过轮次设定权重进行 weighting sample 。解决问候和拜拜的高占比问题。2、基于语义的采样:使用 bert 对对话内容进行 embedding ,然后使用层次聚类通过调节阈值聚类出相似语义的类。对一个类里的样本进行随机采样,提问,为什么要对重复语义的数据进行下采样?3、基于客户类型和产品的采样,因为很多产品是热品,导致对话内容有偏,用户类型一样,需按照类型调整整体比例采样。提问,为什么要这么采样?步骤3️⃣.制定训练数据集我们直接把输出当作 target 进行训练。使用的 lora 训练,但是 lora alpha 设定成为4倍的时候达到了比较好的效果,经验值不同任务不一样,提问,在各种情况下要怎么调?步骤4️⃣.dpo训练问题:v1版本训练时,很多输出内容是对的,但是输出的语气不太像真人,机器人味还是很严重。解决方案:由于训练本身是有 ground truth 的,因此使用v1训练的模型,预测训练集,使用大模型对比两者语气不符合训练集的拿出来,使用训练集的 ground truth 和模型的预测数据作为 dpo 训练对,对v1版本模型重新训练。📳这里老师只是简要进行概括解答,具体情况和详细解答可以咨询辅导,如果想了解项目辅导,提升面试能力,欢迎后台联系。    
点赞 评论 收藏
分享
如何拿到大厂算法岗offer
点赞 评论 收藏
分享
推荐算法3轮面经
今天老师给大家分享推荐算法3轮面经,供各位同学参考。1️⃣第一轮1、先自我介绍,我的习惯是经历简单介绍一下,然后自然转向准备最充分的一个项目开始详细讲,面试官感兴趣的话最好,不感兴趣的话会直接打断的。主要介绍了项目的背景,难点和解决方案,面试官关心的点主要集中在问题抽象和损失函数,讲清楚为什么这么做,项目大概聊了半小时左右2、机器学习基础:推导 lr,写出loss和梯度(比起推导svm来说简直就是送分题,要是写不出来的话估计会直接挂,基础还是要好好准备)3、算法 链表对折 1 2 3 4 5 变成 1 5 2 4 3拆解一下题目,(灵活)找到链表的中点 牛客题霸: 链表中倒数第k个节点 是找中点的复杂版,都是双指针解法翻转后半段链表 牛客题霸: 翻转链表合并两个链表 牛客题霸: 合并两个有序链表 是复杂版2️⃣第二轮1、先介绍项目,主要聊了项目背景和收益,收益具体怎么衡量,项目如何上线生效2、算法题 m*n的二维数组,只能往右或者往下,找最短路径,n空间 牛客题霸: 矩阵的最小路径和3、有了解过设计模式吗?(答了常见的工厂模式和单例模式,对应的应用场景,简单扯了一下装饰器模式,也是看xgb源码看到的,其实不会用)4、系统设计需要注意什么,如何设计一个系统,系统性能如何评估,需要考虑哪些指标(考察点应该是线上的系统了,指标比如内存使用率,qps,99 39 49时间之类的)5、之前帮阿里云录制过一些深度学习的入门课程,简单聊了一下相关的内容3️⃣第三轮1、先介绍项目,主要聊了项目背景和收益,收益具体怎么衡量,项目如何上线生效2、介绍xgbgbdt和xgb的区别(居然没有问lgb)怎么选最优分裂节点,怎么加速,预排序有什么作用,怎么分箱,等宽还是等深怎么处理缺失值的,预测时候缺失值怎么办3、为什么离职,希望一份什么样的工作4、有没有什么问题想要了解的(问了业务场景 工作内容)📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。    
查看10道真题和解析
点赞 评论 收藏
分享
通过大厂辅导老师,我走了哪些捷径
点赞 评论 收藏
分享
04-02 21:01
已编辑
滴滴_HRBP(准入职员工)
文远知行算法岗实习(感知方向)面经全解析与深度复盘
一、面试流程与核心要点1. 笔试环节题型:4道编程题(动态规划+图遍历为主),中等难度。典型题目:零钱兑换变种(动态规划)、图的最短路径优化(Dijkstra或A*算法)。备考建议:重点突破背包问题(完全背包、多重背包)及几何算法(线段相交、多边形包含判断)。熟悉LeetCode高频题(如跳跃游戏、NMS实现),注重边界条件与代码鲁棒性。2. 技术面深度剖析(1) 算法与系统设计考核零钱兑换变种:核心思路:动态规划(DP)状态转移方程,需考虑滚动数组优化降低空间复杂度至O(n)。进阶追问:输出所有组合时,可结合回溯+剪枝策略,避免重复计算。线段交点算法:参数方程法需处理分母为零(平行/重合)及浮点精度误差(如EPSILON阈值判断)。参考:文远知行面试中频繁出现几何类题目,需掌握向量叉积、快速排斥实验等数学工具。系统设计(shared_ptr实现):关键点:引用计数的线程安全(atomic或mutex)、拷贝构造的深拷贝逻辑。性能对比:atomic操作轻量但依赖硬件支持,mutex更通用但存在锁竞争开销。(2) 项目深挖与技术追问点云处理中的循环推断问题:问题本质:目标检测(OD)与跟踪模块的误差累积,导致预测与观测矛盾。解决方案:引入卡尔曼滤波先验估计,面试官进一步探讨粒子滤波的适用性(计算量大,适合非线性非高斯场景)。多传感器同步:硬件触发(如PTP协议)降低时间偏差,软件插值法(线性/样条插值)补偿残差。伪代码需体现时间戳对齐与数据缓冲队列设计8。(3) 场景设计与系统思维停车场调度系统:地图建模:栅格化(障碍物标记)或图结构(节点为车位/路口)。动态障碍物处理:局部重规划(D* Lite)或实时避障(RRT*)。优化目标:面试官倾向于时间最短(用户体验)而非转向最少(硬件损耗)。二、面试官考察维度与策略技术深度:算法岗核心考察代码实现能力(如手撕NMS)与数学推导(如梯度消失解决方案)。项目经历需提炼技术链条(数据输入→处理逻辑→输出优化),并准备失败案例复盘。行业洞察:总监面高频问题:对比竞品技术(如特斯拉FSD的决策逻辑),需熟悉文远知行多传感器融合方案。压力测试:HR面常见陷阱问题(如“何时离职实习”),建议强调职业规划与公司契合度。三、备考策略与资源推荐算法强化:刷题:LeetCode动态规划TOP 100、几何题库(线段/矩形相交)。系统设计:智能指针、线程池等高频考点。行业知识储备:必读文远知行技术文章(官网及知乎专栏),重点学习BEV感知、时序融合等前沿方向。竞品分析:Waymo的仿真系统、Cruise的路径规划特点。项目包装技巧:使用STAR法则描述项目(情境→任务→行动→结果),突出量化指标(如算法精度提升20%)。四、内推与招聘动态当前机会:文远知行2025届春招及2026届实习开放中,算法岗(感知/规划/控制)需求量大。内推优势:通过内推码(DS17ugTB)可加速简历筛选,优先获得面试机会。内推链接如下:https://app.mokahr.com/m/campus_apply/jingchi/2137?recommendCode=DS17ugTB#/jobs投递建议:关注官网及招聘平台更新,匹配岗位JD调整简历关键词(如“多传感器融合”“点云分割”)。 文远知行面试注重算法功底、工程落地能力与行业敏锐度。建议候选人结合自身项目,深度挖掘技术细节,同时加强对自动驾驶产业链(如芯片、传感器、法规)的宏观理解。笔者整理的真题与经验可私信获取,预祝各位斩获心仪Offer!       
点赞 评论 收藏
分享
如何选择算法岗的投递方向
点赞 评论 收藏
分享
中流985转算法岗血泪史 | 双非逆袭路线居然可复制?
无顶会/无大厂实习的真·自救指南大家好,我是诸葛不亮✨最近被问爆的算法岗灵魂拷问:"LeetCode才200题,没打过Kaggle普刊论文能进大厂吗?现在转CV还有机会吗?"今天用带过的真实案例揭秘算法岗上岸密码(已脱敏处理)🟢学员背景中流985电子信息专业1篇CCF-C类论文(非一作)LeetCode刷题量:327数学基础:高数95/线代88项目经历:2个课程设计级CV项目🟠致命短板分析论文质量不达标(缺乏创新点/工程价值)代码能力纸面化(能写推导却调不通模型)技术栈陈旧(还在用TensorFlow1.x)比赛经验空白(缺乏权威名次)🟣60天逆袭方案(附学习Roadmap)✅论文增值计划(3周攻坚)精读5篇顶会SOTA论文(附必读清单)复现经典模型(ResNet/BERT等)技术报告撰写:突出工程落地思考✅代码能力重塑(持续进行)每日1道Hard+2道Medium(按企业题库分类)PyTorch专项:从自动求导到分布式训练周更Github:构建个人技术品牌✅竞赛突围策略(梯度备战)青铜局:天池/讯飞新手赛(保Top20%)黄金局:Kaggle月度赛(冲击铜牌)王者局:DCIC/ChinaVis(争取团队突破)🔵赛道选择建议(附各方向上岸难度表)蓝海方向:图神经网络/生物计算高危红海:人脸识别/目标检测折中选择:推荐系统/风控模型(各赛道知识图谱可私信领取)为算法er准备的独家福利:1⃣ 大厂算法岗真题库(2019-2024持续更新)2⃣ 顶会论文精读笔记(含代码实现要点)3⃣ 竞赛baseline急救包(分类别整理)💡正在进行的《算法岗春招急救营》提供:论文创新点诊断服务代码评审1v1竞赛组队匹配技术路线动态调整⚠根据平台规范特别声明:学术成果需遵守科研诚信规范竞赛严禁任何形式作弊行为课程属知识服务不承诺就业结果 计算机视觉  Kaggle竞赛 #研究生就业
点赞 评论 收藏
分享
招聘音视频算法工程师
岗位职责:1、麦克风阵列算法开发:负责多麦克风阵列的波束形成、声源定位、噪声抑制等核心算法开发与优化,包括近场/远场模型的声学建模;设计阵列拓扑结构(线性/平面/立体阵列),优化麦克风间距、数量及布局参数以提升空间分辨率和抗干扰能力;实现嵌入式设备上的实时处理算法(如广义互相关时延估计、自适应波束形成)。​2、音频3A算法实现:开发声学回声消除(AEC)、自动增益控制(AGC)、噪声抑制(ANS)算法,结合心理声学模型优化语音清晰度;研究多场景(会议系统、智能音箱)下的动态参数调整策略,平衡降噪效果与语音保真度;实现低延迟的实时音频处理,支持边缘计算设备的算法移植与优化。3、音视频编解码与传输:熟悉H.264/HEVC视频编码及AAC/Opus音频编码标准,参与音视频封装(MP4、FLV)与流媒体传输协议(RTMP、WebRTC)开发;优化编解码器性能(如带宽自适应、抗丢包机制),支持低码率高音质场景。4、声学系统设计与调试:主导麦克风阵列和音箱的声学设计,包括箱体结构优化、频响测试及阻抗匹配分析;使用MATLAB/Python进行声学仿真,完成消声室环境下的声压级、混响时间等参数标定;调试DSP/FPGA平台的音频处理算法,解决硬件适配中的时延、功耗问题。5、跨领域协作与创新:与硬件团队协作完成PCB设计,优化麦克风信噪比和抗电磁干扰能力;研究声纹识别、语音合成等AI算法在智能设备中的融合应用 。任职要求:1、教育背景:计算机科学、电子工程、声学或相关专业本科及以上学历(优秀者可放宽要求)。2、技术能力:精通C/C++/Python,熟悉TensorFlow/PyTorch框架及Kaldi/WebRTC等开源工具;掌握数字信号处理(DSP)理论,熟悉FFT、滤波器设计及自适应算法;具备声学测量仪器(如声级计、阻抗分析仪)使用经验。3、经验要求:3年以上音频算法开发经验,至少主导过1个麦克风阵列或音箱产品的完整开发周期;熟悉MEMS麦克风特性及阵列校准方法(如TDOA定位)。4、加分项:熟悉嵌入式Linux系统开发,具备ARM/DSP平台优化经验;参与过智能音箱、会议系统等产品的量产项目。有意向的私聊我~~
点赞 评论 收藏
分享
面试题:为什么 GRPO 容易出现 reward 崩塌?
✴️算法面试中遇到一道实战场景题:在大模型训练中使用GRPO,训到一半 reward 就很容易突然掉下来的原因?GRPO 出现这个问题,需要详细了解强化学习(RL)的基本迭代架构,即 Actor-Critic 架构。知行互动(AC)架构为什么要有 Critic 呢?这就涉及强化学习的算法稳定性问题。与监督学习(SL)相比,RL 实际上是很难稳定的一类训练机制。💣大致的原因如下:RL 本身是处理动态系统的最优控制问题,而 SL 是处理一个静态优化问题。动,就比静更难处理。加上 RL 的数据非稳态,Env-agent 交互机制的数据采集量少,这使得梯度计算的方差更大,方差一大就容易偏离预期目标,算法就容易跑飞了。主流的强化学习算法是怎么解决这一问题的呢?加上 Critic,使用 State-value function 或者 Action-value function 稳定策略梯度的计算过程。更高级一些的算法是采用 Advantage Function,也就是加上了 Baseline,增加梯度计算的稳定性。这是 AC 算法总是优于 REINFORCE 算法的原因之一。✅然而 GRPO 并没有 Critic 部分,原因比较简单,因为 GRPO 是用于训练大模型(1000 亿级别的参数规模),若是使用“知行互动”架构的话,等于需要存储两个大模型。Critic Network和 Actor Network,对存储要求极高。怎么节约存储呢?把 Critic Network 去掉,替换为在线估计 Advantage function 的算法,采用了“时间(算力)”换“空间(存储)”的做法。这就是 GRPO 的设计思想。与之对比,OpenAI 提出的 PPO 算法(也是 GRPO 的基础算法),它的值函数通常是一个与策略模型大小相当的模型,这带来了显著的内存和计算负担。考虑到 OpenAI 并不缺算力资源,不缺存储资源,即使 PPO 算法设计的如此糟糕,照样用的风生水起。🤳回到最初的话题,从原理上看 GRPO 并非完美,与 PPO 相比实际上处于是半斤八两的水平,算法设计存在“稳定性”缺陷,但是为什么 DeepSeek 还能用的比较好呢?因为 DeepSeek 的数据足够多,多到可以“完美”地避开 GRPO 的稳定性缺陷。每次的 Policy Gradient 计算,只要 Batch 数据足够多,就能有效降低 Policy Gradient 的方差,就能获得比较稳定的迭代。当每次使用的数据批量比较小的时候,它的稳定性缺陷将是致命的。这类规模的策略训练,建议优先选择带有 Critic 的强化学习算法。🌟如果大家想了解高质量的项目辅导以及提升面试能力,欢迎后台咨询。    
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客企业服务