连过中大厂17轮技术面的秘诀是什么

鼠鼠半夜睡不着,复盘了一下之前的面试,如果连着只算技术面的话,连续通过了17轮技术面,(Momenta两面,Nebula Graph两面,合合信息一面,虾皮两面,美团一面,腾讯三面,字节三面,阿里三面,我视约hr面为技术面通过)虽然只是日常实习,但是还都算中大厂,我从前端的视角出发,希望能给秋招和实习的小伙伴们一些启发。

我就从老生长谈的八股,手写,项目,实习经历说起吧

八股
大家都背八股,你背的八股如何才能算优势呢。
我认为比较核心的一个点是理解上下文。没错,理解技术的上下文。每个技术都不是凭空出现的。大部分都有专门的委员会制定来解决一些问题。
我拿个最常见的八股例子吧,前端经常会问浏览器的缓存还有http版本差别。这两者其实有联系,面试官问你浏览器缓存的时候,你除了答出浏览器的缓存机制,如果还能答出expires什么时候有的,在http1.1为啥又引入了cache-control。你能把技术的上下文讲给面试官听,就能展示出你的思考。
再比如非常常见的一个八股,vdom的作用价值。可能有人张口就来,什么减少频繁操作
dom次数,影响性能。真的是完全这样吗?那vue新版为什么增加了无虚拟dom模式,svelte也没有虚拟dom,他们就性能不好吗?多去了解技术出现的背景,虚拟dom出现之前大家都用啥,他的出现带来的哪些改变。以这种方式去思考八股,你会发现你站在不一样的高度。

手写
我的手写刷的并不多,但我要确保我刷一题会一题。前端的手写包括两部分,我总结为力扣算法和非力扣算法。
力扣算法前端是经典的hot题目,我的建议是跟着网站或模板刷,这里我就不打广告了。核心就一点,按照模板答题,保证同一个题目每一次做你的写法都相同。
另外就是非力扣,我也是建议去看别人的总结。但是非力扣题就要有自己的思考去刷题。比如面试官喜欢问的深拷贝,很多人写深拷贝没考虑过循环引用、多类型对象嵌套的情况,如果写出一个面试时完美的深拷贝?注意我说的是面试,因为真的去看开源的一些库实现,没必要,用力过猛。再比如发布订阅模式,除了最基本的订阅,取消订阅,发布这三个方法,你练习过一次订阅,一键取消等方法吗,你知道LRU算法非常常考,那你用链表实现过LRU吗?
非常高频的问题,你应该做到对于面试而言的极致,而不是可以写出的程度。

项目
项目有人说没亮点,但是面试官会帮你找出亮点,看你能不能接住。面试官经常会说,你的项目做了XX吗?很多时候他们说的你没想到的,就是亮点,那你下次面试抓紧搞懂加上去。不一定要真的体现在项目上,你会不会比你有没有真的在项目中使用更重要。因为是面试,你实际做的但讲不出来也会被认为你是虚的。同样,很多时候并不关心你做没做,要的是面试那个时刻讲清楚方案原理,有自己的思考。项目的亮点还可以让ai帮你总结。用一款流行的ai编辑器或者插件,喂给它整个项目或者一部分,让它总结你的亮点,拓展再拓展,就成了简历上唬人的亮点。

实习经历
我后面的面试这么顺利,和我在Momenta的实习经历也有关系。每次自我介绍时我都会讲我的实习经历。讲什么呢?讲你在整条业务线上的位置,注意是整条。我是前端,但我不只讲前端。我会说从车端,到云仓,到前端,再到用户的整个闭环。能说清楚整体业务是非常加分的,能体现出你对业务的思考。包括联调,和客户沟通等一些技术之外的问题。这是没实习的人面试时很难讲述的,有实习经历就要放大自己的优势。

在这之后呢是一些其他杂七杂八的技巧。
很多人都是练习面试,那你有没有练习过面试别人呢?这个不需要多少门槛,就和以前上学时互相提问一样。拿到一份简历,去面试别人,你就能站在面试官的角度去思考了,你就会理解面试官为什么会问有些问题了。

关于复习和面经。我的建议是面经在面试的最后前几天刷,作为一种抱佛脚的手段,因为如果是同一个面试官,可能会出相似的题目。前期用地毯式复习,可以但也是最好仅仅把八股网站的题目作为一个提纲,自己去扩充里面的内容,去技术社区搜每一篇技术相关的文章来看看你不了解的地方。

看到最后如果觉得我讲的不错,帮我点个免费的赞吧,有什么想知道也可以告诉我,我也会尽我能力看看能不能解决

#我的秋招日记# #最难的技术面是哪家公司?# #牛客创作赏金赛# #我的OC时间线# #字节跳动# #阿里巴巴# #腾讯# #现在前端的就业环境真的很差吗# #牛客解忧铺# #面试时最害怕被问到的问题# #解忧铺# #牛客AI配图神器#
全部评论
我觉得讲得很不错,八股谁都会背,算法谁都练,网上千篇一律的项目谁都会照着写,但面试官更看重的是你的思考,这才是属于你的唯一的东西
22 回复 分享
发布于 2025-09-08 15:57 上海
根据面经实时整理的高频八股题:https://m.nowcoder.com/mianshi/top
12 回复 分享
发布于 2025-09-10 16:50 北京
合工之名,威震天下
点赞 回复 分享
发布于 2025-09-15 18:46 河北
写得真好,不愧是连过17轮技术面的佬
5 回复 分享
发布于 2025-09-08 13:17 广东
我就好奇你这标题,17轮面试,过于多了吧
点赞 回复 分享
发布于 03-05 22:06 陕西
太强了
点赞 回复 分享
发布于 2025-09-12 15:48 山东
真给哥们🐢👻了
3 回复 分享
发布于 2025-09-08 12:17 安徽
合工大前端黄埔军校
点赞 回复 分享
发布于 2025-09-11 15:18 陕西
合工之名,威震天下
2 回复 分享
发布于 2025-09-08 22:06 安徽
膜拜大佬
点赞 回复 分享
发布于 2025-09-10 23:49 山东
合工之名,威震天下
2 回复 分享
发布于 2025-09-08 17:41 广东
合工之名,威震天下
点赞 回复 分享
发布于 2025-09-10 18:55 河北
合工之名,威震天下
2 回复 分享
发布于 2025-09-08 16:13 安徽
接好运
点赞 回复 分享
发布于 2025-09-10 18:43 黑龙江
鼠鼠真给迪子哥👻了
2 回复 分享
发布于 2025-09-08 16:02 广东
合工之名,威震天下
点赞 回复 分享
发布于 2025-09-10 15:21 湖北
面试拼的日常积累 + 面试技巧,任何一项短缺都会很难。说明大佬不光面试技巧到位,平时的技术积累也是下过功夫的。
1 回复 分享
发布于 2025-09-10 11:50 上海
关于项目这一点,迪神的思路简直无敌了,感谢分享
点赞 回复 分享
发布于 2025-09-10 14:50 安徽
太厉害了
1 回复 分享
发布于 2025-09-08 16:19 安徽
哇塞,姐姐,你好厉害
点赞 回复 分享
发布于 2025-09-10 11:42 安徽

相关推荐

给我面没招了。。。1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。
点赞 评论 收藏
分享
多模态模型横向对比除了 Video-LLaMA,还了解哪些主流多模态大模型?→ 常见的有 LLaVA、Flamingo、BLIP、BLIP-2、KOSMOS、PaLI 等简单介绍 ALBEF 和 BLIP 这两个模型的核心设计→ ALBEF:基于图像 - 文本对比学习,搭配动量蒸馏来优化图文对齐效果;BLIP:引入 captioner 生成高质量图文对,再结合 filter 机制筛选优质数据BLIP-2 的整体结构是什么?两阶段训练流程是怎样的?用到了哪些损失函数?→ 结构:在 ViT 和大语言模型之间插入 Q-Former 作为中间桥梁→ Stage1:冻结 ViT 和语言模型,只训练中间的 Q-Former→ Stage2:冻结语言模型,将 Q-Former 与 LM 连接,做指令微调→ 损失:ITC(图文对比损失)+ ITM(图文匹配损失)+ LM 生成损失微调方法(PEFT 全家桶)了解 PEFT 吗?再讲讲 LoRA,重点说明低秩假设的合理性→ PEFT 是参数高效微调的统称,核心是只训练少量参数而不动原模型权重;LoRA 假设模型权重更新量 ΔW 具有低秩特性,将其分解为 A×B,只训练 A、B 两个低秩矩阵,既节省显存又能保留效果除了 LoRA,还有哪些 PEFT 方法?Prefix-tuning 和 P-tuning 有什么区别?→ 其他方法:Adapter Tuning、Prefix-tuning、P-tuning、IA³ 等→ Prefix-tuning:在输入序列前加可学习的 prefix,作用于注意力的 K/V 矩阵,更适合 decoder-only 架构→ P-tuning:用小型网络(如 LSTM)生成连续的 soft prompt,解决离散 prompt 不稳定的问题,更适配 encoder-decoder 模型大模型训练范式你项目中用到的大模型结构是什么?多模态特征是如何喂给大模型的?→ 示例流程:视频帧 → TimeSformer 提取时空特征 → 特征池化 → 线性投影对齐到文本维度 → 拼接到文本 prompt 之前 → 输入 LLM大模型在做了指令微调后,为什么还需要 RLHF?→ 指令微调只是让模型学会遵循指令,但输出可能更偏向 “模板化”;RLHF 是通过人类偏好对齐,让模型输出更符合人类价值观、更自然、更有用的回答,解决 “有用性” 和 “安全性” 问题了解 RLHF 吗?描述它的完整训练流程→ 三阶段流程:① SFT 微调:用高质量指令数据对预训练模型做监督微调,让模型学会基本指令遵循② 训练 Reward Model(RM):用人类标注的偏好数据训练奖励模型,学习给不同模型输出打分③ PPO 优化:用 RM 作为奖励信号,通过 PPO 算法更新策略模型,最大化 RM 给出的奖励,实现与人类偏好对齐手撕 LeetCode 原题:合并 k 个升序链表→ 核心思路:用小根堆维护 k 个链表的当前节点,每次弹出最小值节点并入结果链表,再将该节点的下一个节点入堆,直到所有链表遍历完毕;时间复杂度 O (N log k),N 为总节点数
查看9道真题和解析
点赞 评论 收藏
分享
评论
254
387
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务