腾讯 后台开发 光子工作室 一面凉经

之前很少分享面经,因为要不就是实验室项目经历,八股拷打,一些解决问题的思路,没什么参考性。

这次面试腾讯,又再一次深切的感受到大厂的威压(之前两次有过如此感受的是字节的提前批算法一面和快手算法三面),面完之后能明显感知到自己对于简历上所写内容的深入理解还不到位,以及难以在面试的短暂时间里体现出自己的优势。

而且开放性问题不少,发出来看看大家的看法以及对于其中的某些问题有没有好的答案,不吝请各位大佬赐教!

--------------

总计 50min

实习经历

腾讯云计算,实习的两个月主要做了什么?(讲了两个主要完成的需求)

C++

引用和指针的区别?

引用的底层原理是什么?比如只能指向一个变量(一开始没想到,之后意识到了是const pointer)

在编译器的哪个阶段实现的?(?)

C++11里的特性,说一说?(列举了常用的那几个)

你知道 Lambda 使用时需要注意哪些问题吗?(我自己说了捕获和返回值,但这种开放性问题真的不好答,尤其是没具体的深究过)

了解协程吗?(只说了知道腾讯开源的libco,但是具体没了解过,面试官说可以了解一下,C本身也有协程)

网络编程

epoll 和 select 的区别?(红黑树和数组)

能不能再具体一些?epoll 和 select 是如何处理事件的?

(这块儿也是好久没看了,看得多点,写的太少,就只有个印象)

计网

对 tcp 和 udp 了解的深吗?(这问题我该怎么答?)

举例,如何用 udp 实现可靠传输?(除了序列号,超时重传,拥塞、流量控制等机制,我说了还有 QUIC)

为什么要有 QUIC?(这时候应该说 TCP 本身的缺陷,建立连接延迟、队头阻塞、连接迁移等问题,我举了连接迁移的实现机制,但是之后也没继续问了)

项目

webserver 定时器是如何实现的?如果要用 STL 里的某个数据结构,应该选哪个?存放的数据又是什么?

(此时我透露了这个项目的部分是我参考开源项目的实现做的,而且确实好久没看了)

日志库是如何实现的?(参考的muduo)有没有什么优势?

线程池是如何实现的?(std::future + 可变参模版)为什么要用线程池?一个16核的机器,分配16个线程,任务结束后等待另一个任务的派发,不用线程池不也是一样的吗?(我感觉这个问题我没有理解)

缓存池是如何实现的?(LRU)。有没有突出的地方?(没有。。。)

简历中有pytorch?是用来做什么的?(聊了聊有关简历上没有的另一个实验室毕设项目,深度强化学习的全景视频传输优化)

能不能聊聊深度学习和强化学习的不同?

强化学习中有个概念叫 MPD,能不能说一下?马尔可夫决策过程

框架是自己写的还是有参考?深度学习用的pytorch,项目框架是自己搭的,有借鉴传统视频的处理框架。

主要用了哪些 python 库?(听到这个问题我真懵了,除了 numpy,我就没记得其他库,除非实践中遇到问题找到了能解决这个问题的库,否则我觉得很难回答上来)

反问?

主要技术栈?C++ 和 Lua,不过 python 和 Go 也有。

如何看待 C++ 这门语言?(因为最近陷入了一种自我怀疑中,是否不该选 C++,以及我到底发挥了 C++ 的哪些特性?Go 和 Rust 在逐渐蚕食 C++ 后段服务器的应用范围,而Java相对来说确实更好找工作)面试官说即使是 C++ 开发,进来也不一定能写,而之所以这么招,是因为如果一个人对 C++ 特熟,那么转别的语言相对来说就会轻松很多。

面试官介绍了一些部门业务,这也是为什么之前问了问强化学习的问题。面试官举例,和平精英里的 AI,应用强化学习使之行为更自然。

#面试经验#
全部评论
关于引用的两个问题,我粗略查了一下,编译时就是当做一个常量的指针处理的,汇编阶段完成这一步的
1 回复 分享
发布于 2023-08-30 19:21 陕西
C++20有coroutine协程,但是概念和Go的协程区别比较大。不知道面试官是不是想问那个
点赞 回复 分享
发布于 2023-09-14 03:22 美国
兄弟啥学历啊
点赞 回复 分享
发布于 2023-08-30 23:46 江苏
招联金融2024届秋招启动啦,欢迎点击头像详细了解🌹
点赞 回复 分享
发布于 2023-08-30 23:37 广东
感觉像是同一个面试官
点赞 回复 分享
发布于 2023-08-30 20:05 陕西
“引用的底层原理是什么?”这个我认为是不太对的,b站上有关于这个的讨论,并不仅仅是const pointer 这么简单
点赞 回复 分享
发布于 2023-08-30 18:41 山东
点赞 回复 分享
发布于 2023-08-30 17:55 北京

相关推荐

四月中旬才开始投递,总算是抓住了暑期的尾巴time line如下:4.15投递5.6一面5.7二面5.8三面512收到offer(一周速通三面,感觉可以挑战全网最快流程)一面(技术面):约80分钟1. 自我介绍2. 详细盘问了科研论文的项目(深度强化学习方向),问的非常详细,包括论文的主要创新点、具体的建模细节等,非常刨根问底,几乎每个设计都要问一下为什么,其中也交叉问了一些八股,主要是强化学习方面的,如loss如何计算与传递等。常规问题以外,面试官还进行了一些拓展,比如让我思考这个科研项目距离落地还需要做哪些工作,多目标的奖励权重如何更新等,这部分我答的不好,但是面试官也非常耐心,一步步引导我去进行思考,也和我交流了他们实际业务中应用强化学习的一些设计。3. 然后又盘问了在滴滴做的项目,这个主要是大致介绍了业务的背景、项目的目标、模型选型的考虑等。其中具体问了一些推荐系统模型的八股(因为简历里有写),如w&d、deepfm、d&c network等的模型特点。4. 面试官介绍了下组里的一些业务,以及如果我能进来的话可以做的一些方向,涵盖的内容非常广,从传统运筹的路径规划到强化学习再到营销用增方向。由于项目和业务上聊了很多,导致没时间手撕,面试官就让我自己截图回去做,做完微信发给他即可。手撕的题是一道力扣mid,最佳股票策略。二面(技术面):约40分钟一面结束后立刻发来了二面通知,第二天上午十一点有趣的是,大概当天十点半的时候,二面还没开始,三面的链接就已经发来了1. 自我介绍2. 滴滴实习项目盘问,问的也很细,跟一面的问题有一些重叠,还问了业务中如果遇到没出现的特征应该怎么处理等数据预处理的问题3. 科研论文盘问,dtw距离是什么,如何计算?k中心聚类的步骤,都是一些常见的八股4. 手撕:力扣mid 编辑距离,发现美团很喜欢出动规题5. 业务介绍,一面时介绍的已经比较仔细了,也没什么需要反问的三面(hr面):约20分钟都是一些开放性的问题,开始侃侃而谈1. 经过前两轮面试,对业务有什么了解?2. 平常有没有用过业务相关的产品?体验怎么样?有哪些痛点?3. 如何利用ai来辅助进行业务升级?举几个具体的场景4. 简历中最能体现自己能力的项目是哪个?具体展开说明5. 过去的几段实习经历里,给自己带来最大改变的是什么?带来了哪些改变?6. 反问    
查看16道真题和解析
点赞 评论 收藏
分享
1️⃣一面时间:9.12  时长:1hcode:统计岛屿数量、最大岛屿面积,DFS方法解了然后介绍实习项目,面试官非常耐心地听,没有打断八股1.bert和gpt的区别?(从模型架构、训练方式、使用场景方面回答的)2.训练/微调一个LLM的流程?3.实习时用的 megatron 框架吗,对分布式训练框架了解多少?(回答了deepspeed和megatron区别,以及几种并行方式,以及deepspeed的三种zero)4.了解强化学习吗,跟SFT有什么区别?5.反问:业务,对岗位的期望💣评价:有点紧张,算法题有一个小失误没注意到2️⃣二面时间:9.14  时长:1h八股1.写一下 attention 公式(代码实现了下)2.训练时为什么要mask,推理时也需要吗?两处有什么区别?推理时的sequence length和训练时一样吗3.transformer和传统seq2seq模型有什么区别?4.计算attention时为什么要除以d_k,这个d_k的含义是?5.attention计算时还有哪些scale处理?6.attention中softmax函数作用、公式、为什么有减去最大值的处理?换个函数还能这样处理吗?7.解释数值上溢、下溢问题8.讲一下prompt书写的经验,如何判断prompt是否达标,如何改进prompt9.讲一下SFT,会对哪部分计算loss?为什么?10.讲一下deepspeed11.训练用一个7b模型要占用多少显存?不同zero阶段能够节省多少显存?12.训练模型时用了几张卡,有遇到什么异常中断问题吗?反问: 在乎候选人什么能力?对面试表现有哪些改进意见?💣评价: 基础不够扎实,网上有的知识都能回答上来,在同龄人里算比较优秀,欠缺一些多机多卡实践经验。  
查看17道真题和解析
点赞 评论 收藏
分享
1.请简述什么是大模型,以及它与传统模型的主要区别是什么?2.你如何评估大模型的性能?有哪些常用的评估指标?3.请描述一下你如何对大模型进行优化,以提高其性能和效率。4.你是否有过使用或开发大模型的经验?请分享一个具体的案例。5.大模型中的注意力机制是如何工作的?它在大模型中起到了什么作用?6.大模型中的优化算法有哪些常见的选择?它们各有什么优缺点?7.如何处理大模型训练过程中的梯度消失或梯度爆炸问题?8.在大模型设计中,如何权衡模型的复杂度和性能?9.面对大模型训练和推理所需的庞大计算资源,你有什么解决建议?10.请简述你了解的大模型的主要结构特点。11.reward bench上的reward model分哪几类?12. reward model如何训练的,训练目标是什么?13.dp0训练的损失函数和训练目标,dpo如何改进怎么理解大模型安全,包含哪些方面的内容?14.指令跟随能力的评估集有什么,如何评估的?15.阿尔法狗强化学习策略是什么?提升推理能力和指令跟随能力哪个更难, 为什么, 提升指令跟随能力的优化方式和其他的比如推理有什么不一样的地方?16.dpo训完了一般输出长度会变化吗? 如何解决这个问题大模型训练过程学习率一般是怎么变化的, 退火阶段学习率如何变化的?17.在开发大模型时,当你面临推理阶段的资源需求时,你如何确保模型的可解释性和公平性?18.谈谈你对Transformer模型的理解,以及它在自然语言处理中的应用。19.请简述Transformer的基本结构和工作原理?20.为什么Transformer使用位置编码(Positional Encoding)?21.如何优化 Transformer 模型的性能?22.Transformer在自然语言处理中有哪些应用?23.transformer里边norm的位置在哪里,norm如何计算的多头自注意力机制的作用是什么?24.注意力机制为什么除以根号dk, 为什么不是dk请解释什么是注意力机制,并举例说明其应用场景。25.注意力机制是如何工作的?请简述其计算过程。26.多头注意力机制是什么?它相比单头注意力有什么优势?📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看26道真题和解析
点赞 评论 收藏
分享
评论
21
132
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务