找不到实习的大摆子 level
获赞
364
粉丝
235
关注
0
看过 TA
4644
北京大学
2025
C++
IP属地:北京
暂未填写个人简介
私信
关注
算法的面试最近基本上都是项目为主, 也没啥八股,就没写面经。蚂蚁是算法工程 二面,饿了么是 NLP 二面, 智能信息是 NLP 一面。蚂蚁基本没问啥,就是针对项目聊了一会时间。重点是后面的代码题给我整不会了。1. leetcode84 柱状图中的最大矩形(上个月刷了,经典单调栈,但是这题感觉我当时写就不太理解, 面试官问我思路我脱口而出单调栈,但是写不出来)2. 84 没写出来,给我换了一个,149。又是一个 hard(开始无语,就想早点结束给我挂了算了。 这题我也没写过, 暴力肯定不难。 但是我说这个我想不到比较优的解)3. 又给我换了一个, 这次给我一个 easy, 让我把一串字符串的空格移动到最后(竟然还给我做道题,这个时候都一个小时多了已经,我还以为会直接结束)然后面试官让我之后可以把前面两道题代码补进那个网页里(结果第二题没来得及补,就进不去了)智能信息一面,夸克 医疗创新1. 一样聊在蚂蚁实习的算法项目2. 中途问了一下, PEFT 的那几种微调的区别,就大概讲了一下我自己的理解3. 我对大模型训练的流程熟悉吗?(就大概讲了一下全流程)4. 了解 RLHF 吗(不太了解,没做过。就随便讲了一下奖励模型啥的)5. DPO 知道吗(不知道怎么做的,就没问了)6. 你觉得应该从哪些方面一个大模型的好坏?(随便说了几个, 知识储备, 指令跟随, 安全对齐, 对话逻辑)7. 那你认为, 你说的这几种能力,都是在模型训练流程的哪个部分获得的?(挺有意思的问题。 知识储备是预训练获取的, 指令跟随一般是做微调, 安全对齐可能是 SFT rlhf, 对话的逻辑性应该都有关)还有啥不记得了, 也没做代码题。 面后不久就约二面了。我笔试都还没做呢饿了么二面饿了么二面有点深挖项目了, 很多我都不太清楚。1. 项目介绍2. 深入聊大模型梯度攻击(这东西在蚂蚁做的, 每次说这个我都很累, 自己讲的面试官都听不明白, 不懂怎么做的。 然后就会出现很多牛头不对马嘴的问题,饿了么二面就一直卡在一个地方说了很久。3.  那你们这个自回归任务用的 loss 是什么? 回归任务常用的 loss 有哪些(这我 ** 还真没了解, 就知道 L1 L2 范数这种,或者用 cos距离)还有一些啥不记得了,饿了么二面时间感觉就 40 分钟,也没做题
0 点赞 评论 收藏
转发
面试官人挺好的, 最近面的都是算法,开发基本上放弃了,也没准备。 临时被捞,想面看看。1.自我介绍2.拷打字节的实习项目3.问了一下字节项目的一些具体细节4. 问我了不了解 redis(字节实习用到了,但是我说我不懂这个,只会用,就没问了)5. STL map 怎么实现的?(红黑树,具体的我就不懂了)我说我用 umap 更多,哈希表。就问了一下他这个哈希表解决冲突的办法,以及 rehash 的时间。5. C++智能指针你知道吗?讲一下6. C++的多态了解吗?(动态,静态,讲了一下)7. 那你知道虚函数表是什么时候创建的吗?(没理解, 不知道怎么回答。就说构造函数会创建虚函数表指针啥的, 编译时候决定? 乱说)然后问古早的 webserver 项目。。。8. proactor reactor讲一下(模模糊糊的记忆,上个月复习了,最近没面又忘记了,就大概讲了一下意思。 面试官说我明白你的意思,差不多)9. 心跳机制是干啥用的?(不记得了,瞎扯)10. 你实现的线程池类是怎么起作用的?(就说了一下大概的线程池思路,其实根本没有深入说, 还好面试官也就大概问问。。。。)10. webbench怎么做的(下载的脚本)11. 知道锁机制吗(uniquelock lockguard 之类的)12. 那你知道互斥锁 读写锁区别吗?13. 锁的底层是怎么实现的?(没太理解,就说原子操作啥的)代码题 LRU,给了 25 分钟, 结果有一点 bug 没跑通,面试官让我讲一下思路,然后说思路没问题,有一些小 bug 自己下去看看。整体难度只能说是非常友好了,但是确实是最近已经放弃开发了(都挂了)面试官也一直说明白我的意思,没问题啥的。不知道能不能过
0 点赞 评论 收藏
转发
先上来面试官说我笔试成绩还不错,恭喜我通过笔试。1.自我介绍自我介绍中途就被打断问问题了面试官似乎比较想深挖我第一段实习的推荐系统部分,但是我主要是数据相关,不太懂其实。2.为什么我们要用流式 flink 任务而不用 map reduce 啥的(好像是这样问的,不太记得了)3. 有针对你的 flink 做一些优化吗?有测算过它的时间性能吗?4.知道哪些召回的方式(倒排?向量召回?)5. 向量召回中是怎么做到快速召回的?这么多数据量不可能一个一个去遍历吧?(不会。。。瞎扯)6.有没有用过 java 的 springboot 啥的(完全不会 java)然后可能是大模型实习项目的一些问题7. 推理框架你有了解过吗(没有。。)8. 推理流程你能介绍一下吗?9. 既然说到 tokenizer,那你了解分词的方式吗?介绍一下 BPE。10.BPE 中我合并相邻的词后,比如 AB,那么 A 和 B 还会存在词表中吗?(那肯定)11.分词的时候是分成大词还是小词优先,比如是 AB 还是 A 和 B(AB,这样应该可以尽可能的保持语意)12. 做微调的时候, 有没有必要去加入新的词到词表中?13. 那几种常见的微调方式介绍一下。14. 你在做微调的时候,怎么解决遗忘的问题?还有一些问题不太记得了, 也没让做代码题,应该是笔试分数还比较好就没做。反问问了做的业务,他说是有做推荐算法的训练架构(难怪问了我那么多第一段实习的推荐的东西,但是我也没接触过这些算法侧的问题)还有做大模型相关的一些训练推理框架优化,实际上就是 AI INFRA。还问了我的笔试反正就是说挺不错的。然后问现在这个岗位面的人多吗?多久有结果。他说简历确实挺多的,一面可能都得一周多才能面完,之后才会做一次筛选。
0 点赞 评论 收藏
转发
投的是算法工程 算法工程岗位。做的是 Ai infra。实际上是做大模型推理加速训练加速之类的优化框架, 没啥经验。1. 自我介绍2. 介绍一下自己第二段实习遇到的难点(就从算法和工程两块随便说了一点)3.C++指针和引用的区别4.STL 常用吗? map 的具体实现懂吗?(红黑树,不过用 umap 更多,哈希表)5.那你介绍一下哈希表的常用实现方式。(就讲了一下拉链法, 桶,重哈希啥的)6. 智能指针了解吗? 介绍一下7. 右值引用知道吗?移动语义介绍一下。8.transformer 的结构了解吗?介绍一下9.有了解过大模型的并行优化方式吗?(随便讲了一下模型并行 数据并行 流水线并行)10.那我现在一个 gpu 都放不下一层怎么办?(张量并行)11.那你知道张量并行怎么设计吗?就是矩阵之类的怎么拆?(这个不太了解了)12. deepspeed 和 megatronLM 有了解吗?(不太了解其实,只用过,什么 3D 并行13.flash attention 有了解吗?(大概讲了一下 QKV 中间状态不保存, 后向重新计算, 还有 softmax 分块计算)代码题字符串反转 to be or not to be 反转成 be to not or be to整体而言不难,但是主要是整体问的都比较底层和框架一点,其实都不太了解, 不知道面试官咋看。
0 点赞 评论 收藏
转发
这次面的是工程院 bing 团队的 LLM 应用组,问的问题量不大,有一些比较开放性的问题比较有意思。1.自我介绍 两面都有2. 主要会根据项目做一些介绍,这个一面久,二面短一些。3. 一面问了 transformer 结构4. 有没有做过大模型之外的 NLP 相关的内容(简单讲了讲)二面的开放性问题5. 做 rag 应用的时候, 如果幻觉问题严重怎么办?比如已经给了很多 rag 召回的内容了,但是还是错误很多,尤其是一些时间数字类的信息,很容易不准确。(我回答:类似于指令微调,构造对应的数据集, 微调强化大模型对检索的内容的跟随能力)6.接着上面,那你觉得这种数据集怎么构造呢? 检索的内容和问题很好弄,但是答案怎么获取方便?(我: 我觉得可以反向构造,我先从网络上爬一堆内容作为答案,比如把新闻里的一些信息作为答案,然后让大模型比如 gpt4 生成对应的问题, 再检索召回相关的内容,构造数据集。 面试官说这个想法还挺有意思的)7. 我想通过加噪声的方式提高模型的鲁棒性, 你觉得这个噪声应该怎么加好? 或者说怎么确定加在 token 的什么位置,加什么 token?(不太懂,我就说从我一般的理解,加噪声都是从 embedding 去加的, 比如随机加一些高斯噪声提高鲁棒性)8.如果我做 rag 召回的相关内容里,会有人恶意注入了一些错误的信息, 你觉得会影响大模型的生成内容吗?怎么避免?(我认为肯定会有影响, 因为关注的信息有错。 我觉得可以提高召回的信息量, 从而稀释错误信息占比来解决)9.接着上面的回答, 我们的输入长度有限制,不能无限加召回的内容怎么办?(可以在检索召回链路中再加一层,类似于粗排后再精排一次,从而减少错误信息的量)其他的不记得了,就是感觉现在面试很喜欢问一些开放性问题。代码题一面编辑距离, 二面是一个有序数组左边平移一定位置后的数组,找到一个 target 的下标。都不算难。
0 点赞 评论 收藏
转发
1.自我介绍2.抓着项目的一些问面试官喜欢问从顶层的实验设计的一些东西我的实验为什么要选用 cos 距离或者 mse?能不能用 KL散度?是不能用还是不好用?KL 散度和交叉熵的区别和联系是什么?(都是我没考虑过的问题 有点汗流浃背)既然你用到了那么多微调方式, 那你有什么实验过程中探究了 lora 的比如 秩之类的参数的影响吗?prompt tuning  ptuning v2 有啥区别?(说完他觉得我说的太八股太宏观了,又讲了一堆原理)为什么 p v 2 比 prefix tuning 要减去那个 lstm 和 linear? 我说论文里说适配 NLG 任务,好像记错了。有没有接触过强化学习?为什么你们只考虑微调,是因为啥原因?你是用几张卡跑实验?多大参数的模型?跑的时候内存占用量多大?有没有试过全量微调? 那你想一下,假如我用 deepspeed 的几种版本, 全量微调7B 模型,内存占用多大?最后大概的意思就是说他比较看重实验最初的一些设计能力, 不能蹬 OOM 再来解决。让我之后要多理解一下 deepspeed。说社招看的多这些理解能力。反正基本上就是项目围绕讲。 后面说我项目做的,工程应该能力不错。 代码题也是那种很简单的处理数据。
0 点赞 评论 收藏
转发
0 点赞 评论 收藏
转发
有点搞笑,用他们那个奇怪的会议软件,捣鼓了半天音频。然后问的内容和一面也完全不一样, 也都不是我简历的侧重点。1.自我介绍2.你用 python 怎么实现并发?(蚌, 用的是组里封装的,我也不知道是什么,也没背过 py go 的面经,随便扯了一下)3. go 和 py 并发有什么区别(不知道不了解,随便说了一下协程)4. clickhouse 和其他的一些数据库啥区别(不懂,只会用 瞎说了一下开发的时候怎么选什么数据库)意识到我不会之后,问我我熟悉什么。我说我熟悉 Cpp 的一些底层知识, 大模型主要是算法相关的一些内容。go py 主要就是作为开发 web 工具,实习里也不可能了解那么多原理。然后开始问大模型相关。。。。5. 你有写过调度器吗(我:调度器是什么?)6. 那你有用过 gpt 的代码编辑器吗?(我:啊?copilot 么?没有了解过,后面查了才知道,应该也是一种应用。)7.问我懂不懂容器,k8s 之类的这个时候我已经不想面了。。。我就说,这些东西我两段实习和项目都没有接触过,都不会。然后开始说:我不知道咱们这个岗位的需求是什么, 一面的时候也没问过这些东西,和他沟通业务当时可能也没太清楚。 所以也没准备这些知识点, 确实是有一些准备不佳。如果不匹配的话也没事。他就问我有什么反问的吗? 我说我一般都会反问业务的具体内容,一面也问了。但是我看好像可能不是很合适的样子,如果这个岗位确实需要那些东西,我也不会, 也没必要问太多了。他问我为什么不投算法,我说我投的是算法,HR 建议我投这个后端,我说也可以。然后问我之前是面过一面了吗?我说是。他说那他和老板说一下这个情况。
0 点赞 评论 收藏
转发
牛客网
牛客企业服务