卓世科技面经--2026.3.9

腾讯会议录制后的AI会议总结(30min#牛客AI配图神器#

这是一场关于计算机技术岗位的面试会议。本次会议主要围绕应聘者的项目经验、技术能力和对Java、MySQL等技术的理解展开讨论。面试官还询问了应聘者对AI领域的了解程度以及未来实习转正的可能性。

1、面试开场与设备问题
面试开始时,面试者设备出现问题,摄像头无法打开,请求重启设备。
面试官同意面试者重启设备,面试在设备重启后继续进行。
2、面试者自我介绍
面试者自我介绍为郑州大学计算机技术专业的27届硕士在读研究生,有两段实习经历和一些项目经历。
面试者掌握的技术包括SSM框架、MySQL、Redis、RabbitMQ等工具,并能熟练使用AI进行编程。
3、实习经历与项目介绍
面试者第一段实习是在老师的横向项目中,第二段是在本地企业实习三个月。
面试者详细介绍了一个名为“聚宝盆”的ERP系统项目,该系统服务于中小型商超,包含多个模块如主数据中心、库存中心等。
面试者在项目中主要负责接口开发,特别是顾客支撑模块的接口开发。
4、技术问题讨论
面试官询问项目中的并发处理方案,面试者提到在价签打印模块使用了分布式锁和MySQL异步处理。
面试官进一步询问如何提升系统并发能力,面试者提到缓存优化和硬件提升。
面试者介绍了电商直播赋能平台项目中的Redis主从加哨兵架构,以及接口限流和防刷策略。
5、Java技术点讨论
面试官询问HashMap的底层原理,面试者详细介绍了Java 1.7和1.8版本的差异及put流程。
面试官询问红黑树的插入和遍历,面试者简要回答并承认对旋转操作不熟悉。
6、MySQL技术点讨论
面试官询问MySQL的三大日志,面试者回答为redo log、undo log和binlog。
面试官询问脏读和不可重复读的概念及解决方案,面试者简要回答并承认对MVCC实现细节不熟悉。
7、公司业务与实习机会
面试官介绍公司业务为AI领域,涉及医疗等多个行业,主要做大模型和Agent相关项目。
面试者询问实习转正机会,面试官表示取决于能力和工作表现。
面试者询问入职后的培训,面试官表示会有项目指导但非一对一教学。

会议待办
深入研究并理解红黑树的插入和遍历过程
全部评论
xd,我今天也面了这家,请问你有后续了嘛
点赞 回复 分享
发布于 03-10 15:44 北京
佬,过了吗
点赞 回复 分享
发布于 03-09 19:54 江西

相关推荐

刚刷到字节跳动官方发的消息,确实被这波阵仗吓了一跳。在大家还在纠结今年行情是不是又“寒冬”的时候,字节直接甩出了史上规模最大的转正实习计划——ByteIntern。咱们直接看几个最硬的数,别被花里胡哨的宣传词绕晕了。首先是“量大”。全球招7000多人是什么概念?这几乎是把很多中型互联网公司的总人数都给招进来了。最关键的是,这次的资源分配非常精准:研发岗给了4800多个Offer,占比直接超过六成。说白了,字节今年还是要死磕技术,尤其是产品和AI领域,这对于咱们写代码的同学来说,绝对是今年最厚的一块肥肉。其次是大家最关心的“转正率”。官方直接白纸黑字写了:整体转正率超过50%。这意味着只要你进去了,不划水、正常干,每两个人里就有一个能直接拿校招Offer。对于2027届(2026年9月到2027年8月毕业)的同学来说,这不仅是实习,这简直就是通往大厂的快捷通道。不过,我也得泼盆冷水。坑位多,不代表门槛低。字节的实习面试出了名的爱考算法和工程实操,尤其是今年重点倾斜AI方向,如果你简历里有和AI相关的项目,优势还是有的。而且,转正率50%也意味着剩下那50%的人是陪跑的,进去之后的考核压力肯定不小。一句话总结: 27届的兄弟们,别犹豫了。今年字节这是铁了心要抢提前批的人才,现在投递就是占坑。与其等到明年秋招去千军万马挤独木桥,不如现在进去先占个工位,把转正名额攥在手里。
喵_coding:别逗了 50%转正率 仔细想想 就是转正与不转正
字节7000实习来了,你...
点赞 评论 收藏
分享
给我面没招了,发点面经攒攒人品~1*当大模型产生错误回答或幻觉时,在工程和算法层面有哪些规避手段?2* 描述 Transformer Decoder 的完整解码流程。3* KL 散度的数学意义是什么?在模型对齐(如 PPO/DPO)中起什么作用?4* MoE架构的具体实现原理是什么?路由(Router)是如何工作的?5* 面对模型在生成过程中出现循环、重复回答的问题,有哪些解决办法?6* BM25 算法的数学原理是什么?它相比于简单的 TF-IDF 有哪些改进?7* Agent 系统中的LangGraph是如何搭建的?其 Memory 组件的工作机制是怎样的?8* 如果单次生成的任务量远大于模型的 Max Tokens 限制,如何实现断点继续生成?9* Transformer 中 Attention 的本质是什么?请从数学角度解释。10* 为什么在计算 Attention 时需要进行Scaling11* Self-Attention 和 Cross-Attention 在作用和输入来源上有什么区别?12* 面对极长序列Attention 的 O(L^2) 复杂度问题目前有哪些主流解决方案?13* 在 Agent 多轮对话任务中,Attention 机制的局限性体现在哪些方面?14* 为什么模型在长上下文对话中容易出现“信息遗忘”?有哪些缓解机制?15* 介绍 SFT的流程,以及如何构建高质量、多样化的数据集?16* 在什么业务场景下,必须引入 RLHF 或 DPO 这种偏好对齐技术?17* MinerU 在解析复杂的工业文档(如图文混排)时,具体的处理逻辑是怎样的?18* 在多模态检索中,文本和图片是如何映射到同一个统一向量空间的?19* Ragas 评测框架中的 Faithfulness 和 Answer Relevance 指标的具体计算逻辑是什么?20* 相比于 LangChain,LangGraph 在处理循环任务和状态管理上有哪些优势?21* LangGraph 的状态快照机制是如何实现任务回溯和持久化的?
点赞 评论 收藏
分享
评论
点赞
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务