数据分析师精选面经合集
4家公司
6篇面经
最新 热门
/discuss/826412377426898944/feed/main/detail/d38fd51d265f44b7a1ee6100c6af0f23
从"面试困难户"到"offer收割机",我只改变了一个思维
后来我又陆续面了几家公司,基本上过了简历筛选的,二面三面都能过。拿了5个offer后,我把这套方法整理了出来,分享给一起找工作的室友和学弟学妹。第一步:三层拆解法 - 挖出你最值钱的东西很多人不是没有好的项目经历,而是不知道怎么挖掘价值点。我用的方法是"三层挖掘":第一层:表面层(我做了什么)这是大部分人停留的层面,只描述做了哪些事。比如"我开发了XX功能"、"我写了XX模块"。第二层:价值层(我解决了什么问题)往下挖一层,思考这件事的业务背景和价值。比如"这个功能上线后,用户留存率提升了15%"。第三层:方法论层(我的方案为什么有效)最深的一层,是你的思考方式和解决问题的套路。比如"我建立了一套性能优化的排查流程,后续其他项目都能复用"。举个例子,假设你做过数据分析的实习:表面层:"我做了用户行为数据分析,输出了XX份报告"价值层:"通过数据分析发现了用户流失的三个关键节点,推动产品优化后留存率提升了22%"方法论层:"我沉淀了一套用户分层分析模型,新人用这套方法上手数据分析的时间从2周缩短到3天"面试时,第一层只能证明你做过,第二层能证明你有产出,第三层才能证明你有成长潜力。第二步:STAR故事法 - 让面试官记住你面试官一天要见很多人,能记住的寥寥无几。怎么让他记住你?讲一个有画面感的故事。我用的是改良版的STAR法则:S(Situation)- 场景要有冲突点不要平铺直叙"我去年做了个项目",要制造冲突感。❌ "我去年做了一个电商系统的优化"✅ "大促前一周,我们发现系统在高并发下会宕机,如果不解决,大促当天肯定会出事"T(Task)- 任务要明确具体说清楚你的目标是什么,最好有量化指标。✅ "我需要在一周内把系统的并发承载能力从1000 QPS提升到至少5000 QPS"A(Action)- 行动要有层次不要流水账式地罗列,要分层次说明你的思路。我一般用"三步走"的结构:先做什么(定位问题)再做什么(解决方案)最后做什么(验证效果)R(Result)- 结果要有数据+额外收获不只是说结果,更要说这件事给你带来的思考。✅ "最终系统稳定支撑了8000 QPS,大促当天零故障。这次经历让我意识到,性能优化不能等出问题再救火,要建立常态化的监控和预警机制。"第三步:反向提问 - 证明你在思考这个岗位很多人忽略了"你有什么要问我的"这个环节。其实这是一个展示你思考深度的绝佳机会。我一般会准备4类问题:1. 团队现状类"团队现在面临的最大技术挑战是什么?"→ 展示你想快速融入并解决问题2. 业务理解类"我看公司最近在推XX业务,这块和原有产品线的协同点在哪?"→ 展示你做过功课,对业务有思考3. 成长空间类"这个岗位上表现优秀的人,通常具备哪些特质?"→ 展示你想持续成长,不是来混日子的4. 工作方式类"团队一般怎么做技术决策?更注重稳定性还是快速迭代?"→ 展示你在评估是否匹配,很慎重千万别问"薪资多少"、"加不加班"这种问题,会显得你只关心个人利益。七、写在最后:从"求职者"到"问题解决者"回头看这半年的面试经历,最大的改变不是我的技术能力突然提升了,而是思维方式变了。以前我把自己当成"求职者",觉得面试是在等待别人的评判,心态永远是被动的。现在我把自己当成"问题解决者",我来面试是因为我看到你们团队有某个问题,而我恰好有能力帮你们解决。面试变成了一场平等的双向交流。这个思维转换听起来很虚,但真的会改变你面试时的整个状态。当你不再把自己放在"被挑选"的位置,而是平视着跟面试官探讨"我能为这个团队带来什么价值"的时候,你的自信、你的表达、你的逻辑,都会不一样。最后分享一个小工具,我最近在用AiCV简历王这个工具做面试准备,它能根据JD和你的简历生成针对性的面试题库,还有闪卡模式可以随时刷题。对我帮助挺大的,感觉像是给面试配了个陪练。如果你也在找工作,希望这篇文章能给你一些启发。面试这件事,真的是可以通过刻意练习变得更好的。加油。
面试被问“你的缺点是什么...
点赞 评论 收藏
分享
/feed/main/detail/2013a0f09c804ccc805e0e865975be0a/feed/main/detail/dc9fabac7b914453a89f8ab97b726c79/feed/main/detail/d08dd93a5aed41019b5cb9ab011bc5ba/feed/main/detail/af8a77bffe6347f28b75ec5d44fe295c/feed/main/detail/dccba15f6e30435caaa6f00979d103a3/feed/main/detail/59ff5c53e2c44174939af85017a5b150
神策数据面经
三面-两周完成三面流程-后续两周推进oc一面:项目介绍;项目难点介绍;HashMap和TreeMap,安全的Map,锁粒度;ThreadLoacl作用;虚拟内存,映射方式;手撕:实现一个随机访问的集合;long数据存储去重怎么做;位图,16GB内存可以去重多少数据;16 GB = 16 × 2³⁰ Byte= 16 × 2³⁰ × 8 bit= 16 × 2³ × 2³⁰ bit= 2³⁷ bitk个有序链表排序怎么做;取10000个数据的前10个数据怎么做;查看占用CPU最高的进程,有哪些工具可以看;fullGC和MinorGC,G1垃圾回收器,怎么限制进程最大内存;死锁以及出现情景;二面: 50min项目介绍,挑一个项目详细介绍;前端到后端的调用是怎样的;单体项目到微服务项目是怎么转换的,调用方面有什么不同;Get和Post有什么不同;用户验证怎么做的;高并发分布式锁怎么处理;缓存与数据库一致性怎么处理;Redis内存满了怎么处理;RDB和AOF有什么不同;LRU实际应用怎么实现;怎么排查慢响应;索引数据结构,给所有字段加索引行不行;B+树有什么优点;手撕:Z遍历树;三面:20min自驱力怎么体现,详细说明;工作地点怎么选择,有什么期望;分布式数据库怎么设计,有哪些需要关注的点;hr介绍了业务需要钻研,问候选者自身能不能沉得住气;期望薪资;能不能实习;
点赞 评论 收藏
分享
/feed/main/detail/b8db36fd64f546caaa604a7e5e0697eb/feed/main/detail/d5f4c62a6b194751986f41f4799780fc/feed/main/detail/6acdf880b9124789903d0cbebb83cbad/feed/main/detail/b9daede8bedc41a4b15f39b50ffab0a8/feed/main/detail/c79c5b71e4634abb87c5062bc71db98a/feed/main/detail/ec8f66417912447882b7c5302d9909dc/feed/main/detail/f21ca58603ac4d50b25c710a92c6a73e
头像
11-24 19:03
已编辑
门头沟学院 数据仓库
数新智能 数据开发 一面
30分钟 0.自我介绍1.谈了谈有无考公考研的打算2.回归正题 介绍项目(某硅谷的离线实时,还有paimon湖仓)讲了讲ads层指标什么三天登录,用户流向分析之类的,我说这三个项目指标都差不多问了我在哪做的,我说在自己虚拟机上部署的问数据来源,我说是有模拟生成业务库数据和日志数据的jar包,然后讲了一个这两条链路的数据的路径,maxwell,flume,kafka什么的然后问我paimon湖仓 怎么做的  我说paimon湖仓用官方的mysql-paimon的包直接进行同步,代替了maxwell然后我说paimon的snapshot+tag代替了传统离线的拉链表,感觉很方便,问我什么地方做的拉链,我说的用户表,然后我又讲了讲hdfs的小文件,paimon怎么解决的实时写入的小文件问了有没有遇到过什么问题  我说遇到执行任务的时候doris fe节点崩溃,查不到数据,然后我就一直扩大内存,虚拟机也搞得一台25g了3.flink怎么保证数据不丢不重   我答了kafka支持事务,checkpoint记录状态和kafka消费位点,又讲了paimon sink的时候自动清除没有snapshot指向的manifest来删除故障前多读的数据,说了一堆paimon相关的,比如lsm树文件结构,checkpoint时产生snapshot,还有paimon写入文件的大概流程4.数据倾斜  我说的原因就是比如短视频业务下某个视频火了产生热点key,导致某个分区数据特别多,可以用flink的重分区算子,写代码加盐打散,或者自定义kafka的分区逻辑5.sql优化  我说的谓词下推提前过滤,多表join优先join小表,还有starrocks,doris这些olap引擎的CBO优化查询,讲了starrocks物化视图是一个实际读出来的表,可以设置新鲜度来变更读的频率,而且CBO会自动查询sql语句的查询结果是不是某个物化视图的子集,以此来优化,然后这些引擎底层也会帮我们做些优化。6.问我知道paimon的结构化非结构化数据的存储格式吗    不知道,没接触过6.1讲一下什么是湖仓一体 我说是湖的各种数据都能存和仓的规范的,规定好字段名,类型等元数据便于分析的能力的结合,我自己又说了一些什么schema on write,read之类的7.问我还知道什么数据湖技术  我说iceberg,hudi 区别我之前看过,但是忘了,我就记得paimon和flink的集成比较好,比较亲儿子,然后就没问了8.怎么看现在很多人都投身大模型行业   我说的感觉很正常,因为这个ai本身看着就很吸引人()8.1我说我用过那个阿里云的data什么,面试官说dataworks是吧,就是我们之前做的,问我还用过什么,我说阿里云的flink,fluss都用过,也用过神策,然后面试官讲了讲他们的产品8.2说了说我做过的其他东西,我说我搭建过网站,做过抖音小游戏但是上架太麻烦()9.英语好不好  我答:半废   面试官说那海外业务就不考虑你了10.怎么看data+ai (因为我简历上写了了解data+ai)我说的就是从前我们用个什么库只能对文字完成基本情感的正负分析,而引入了大模型就可以做出更精确的判断,比如用在用户直播间识别弹幕给主播提建议,或者金融行业智能agent检测到风险实时邮件通知之类的反问 15分钟1.flink现实市场上用的多不多2.paimon这类数据湖到底用的多不多当时忘录音了(),有的问题记不清了整场面试也是又说有笑,面试体验给到夯()🤠🤠🤠
查看21道真题和解析
点赞 评论 收藏
分享
/feed/main/detail/3769fba1940b4dd3a0b94b2607fd32c3/feed/main/detail/5b0b41edd6364a758ed7f2548a550229/feed/main/detail/057c958607cb4d2ba04a192839b24b9b/discuss/820460075801128960/discuss/820412855202623488
玩命加载中
写面经
发动态
发动态
发帖子
写文章

全站热榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务