字节二面挂,大家帮我分析一下。。是技术问题还是没HC了

昨天字节二面被挂,我说一下感受,大伙儿帮我分析一下原因。我投的C++后台开发日常实习。第一面很顺利,问的90%都答出来,算法题也A了,跟预期一样当天过,过了4天二面,这次的面试老师感觉更好,聊的很开心,问的问题虽然比较深,但是都答出来了,老师也说不错不错,算法题做过的DP变形了一下,3分钟秒A,面试愉快结束。两个小时后我看状态变成了已结束,连饭都吃不进去了,我给HR打电话,HR说还没收到消息,让我耐心等邮件,等到后面邮件果然也是感谢信,我真的绷不住了,给我内推的师姐说帮我问问HR面评,hr说面评不能给看,但是可能技能跟岗位不符,但是这位同学背景很不错可以投其他的试试。所以这是被发好人卡了???
后来,我问我同门,我同门跟我一样都是做CPP的投的同一个岗位,比我晚投了3、4天,投完状态就变成了转推荐至其他岗位。所以是没hc了???如果是没hc,我看不少是面试完是被转推荐到其他岗位,那我为啥直接被结束了???所以到底是没hc还是我真的菜????给我整没信心了。。。头一次面试,信心满满,期待满满,等来个这样,要是我真的发挥很惨我也认。。可是我真的不觉得我技术有什么问题。。。。😔
#实习##C/C++##面试流程#
全部评论
听到你的描述,应该是没HC了,但没HC的原因有多种,可能突然遇到一个更牛的,或者就是单纯的不需要人了,实习生这个岗位,实际上变动很大。 有时候运气问题真的很难讲,我也有朋友从一面打到三面八道算法题全做出来,最多有的题可能不是最佳方案,这也直接挂了。 重要的是自己能从中知道自己的短板,弥补后接着投。如果这次面试没让你发现可以弥补的短板,那就说明不是你的能力问题了,放宽心,接着投就是了。 字节不留爷,自由留爷处。 @河老师
7 回复 分享
发布于 2022-04-24 11:59
现在春招末尾了 确实没什么hc了。
1 回复 分享
发布于 2022-04-23 14:07
hxd面试就是实力➕运气,缺一不可
1 回复 分享
发布于 2022-04-23 13:40
可能面试官看不对眼?或许不是指技能这方面。因为日常实习生好像不需要hc的。
点赞 回复 分享
发布于 2022-04-27 00:24
老哥什么部门啊
点赞 回复 分享
发布于 2022-04-24 09:51
之前面过字节的其他部门吗?可能就是没多少hc了吧,面试也比较看运气,不一定是实力的原因
点赞 回复 分享
发布于 2022-04-23 12:27

相关推荐

目前主流的 Embedding 模型都是 Bi-Encoder 架构(双塔模型):query 和文档各自独立编码成向量,再算余弦相似度。这种架构的优势是速度快——文档向量可以离线算好存起来,查询时只需要算一次 query 的向量就能跟整个库比对。代价是精度不如 Cross-Encoder,所以才需要两阶段检索。✴️下面是目前开源社区里最常用的几个 Embedding 模型的核心对比:✅BGE-M3(BAAI 智源):目前中文场景的首选。支持中英多语言,最大 8192 token 的上下文窗口,同时支持稠密向量、稀疏向量和 ColBERT 式多向量检索三种模式。在 MTEB 中文榜单上长期稳居前列。如果你不知道选什么,无脑选 BGE-M3 不会错。✅BGE-large-zh(BAAI 智源):专注中文的大尺寸版本,在纯中文场景下精度略高于 M3,但不支持多语言,上下文窗口也只有 512 token。适合纯中文且文档较短的场景。✅GTE-multilingual-base(阿里达摩院):阿里出品的多语言 Embedding 模型,在 MTEB 多语言榜单上表现很强。跟 BGE-M3 是直接竞品关系,两者在多语言场景下各有胜负。如果你面的是阿里,了解 GTE 是基本功。✅E5-small/base/large(微软):微软出品,特点是有从 small 到 large 的完整尺寸梯度,small 版本只有 33M 参数,特别适合资源紧张或需要部署到边缘设备的场景。精度比 BGE 略低,但推理速度快很多。✅Jina Embeddings v2(Jina AI):最大亮点是支持 8K token 的超长上下文。如果你的文档 chunk 特别长(比如整段法律条文或完整的技术文档章节),其他模型可能截断,Jina v2 能全部吃进去。✅MiniLM(微软):极致轻量级,速度最快,适合对延迟要求极高或大批量处理的场景。精度是这几个里最低的,但胜在快。🌟四种经典搭配方案1️⃣经典流水线:BGE-base2️⃣检索 Top 100 → BGE-Reranker-base3️⃣精排多语言场景:GTE-multilingual-base + GTE-multilingual-rerankerGPU4️⃣紧张:E5-small + MiniLM-L6-cross-encoder(batch 推理)5️⃣长文档 / 8K:Jina-embeddings-v2 + Jina-ColBERT-v2,段内匹配更稳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
3
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务