字节一面挂

上来讲实习,讲论文,问得贼细,面了大概一个小时多一点,说来做道题,出了一个找两个字符串里最长连续公共子串,且允许一位错误,写了十几分钟写不出来问能不能换一道,他说没时间了,让我回头去看看这道题,已被HR推荐至其他岗位,八股也没问多少,只记得一个transformer的问题。其实聊得挺开心的,就是算法题好难啊,我看牛客上其他人都没到这种程度,回头上GPT发现难度还行,只能说题刷少了特别DP。字节面试难度应该算很难的那种,正好拿来当样本,希望腾讯跟腾讯音乐能快点找我面试,目前只有一个百度提前批排序中,快手二面,今晚结束华为笔试,海投了十家吧,下周蚂蚁星笔试,开始再多投一些,争取在实习公司拿个留用 

第二天中午更新,中午十一点半在腾讯校招页面换了一个方向投递,过了大概十分钟左右约面,希望一切顺利,你们也是🥹

再次更新,已收到转岗的面试邀请,HR说是中台的面试,看邮件里写的是抖音算法工程师,请问各位牛友中台卷么,累不累,加班是否严重?薪资待遇呢?      

7UgZW8UFpqvStyTtZaLG5LG80Nu0rnNo.jpg
#字节##腾讯#
全部评论
北大✌️不是聊聊天就过了吗
52 回复 分享
发布于 2024-08-28 22:50 浙江
北大佬都能挂
18 回复 分享
发布于 2024-08-29 23:44 黑龙江
我也被一面挂,我=北大✌
16 回复 分享
发布于 2024-08-30 11:45 上海
北大✌🏻也被挂,字节面试官有眼不识泰山
4 回复 分享
发布于 2024-08-28 23:21 天津
太强了
4 回复 分享
发布于 2024-08-28 22:29 广东
没事白搭✌🏻,是志杰不配
3 回复 分享
发布于 2024-08-30 11:36 北京
官网显示流程终止,还有机会被捞嘛😭
3 回复 分享
发布于 2024-08-29 13:03 北京
楼主 评论里说的找hr转岗怎么操作呀 字节还没面试 但是浪费了第二次投递机会 因为投了个机器人测开 流程直接结束
3 回复 分享
发布于 2024-08-28 23:08 山东
字节挂了一次后,怎么才能被捞
3 回复 分享
发布于 2024-08-28 22:53 北京
北大都挂,看来挂我也是理所当然
2 回复 分享
发布于 2024-09-02 09:21 河南
算法岗吗,那应该就是难度大些
2 回复 分享
发布于 2024-08-30 11:47 河南
我昨天也面字节了,确实是深挖项目,没怎么八股
2 回复 分享
发布于 2024-08-30 11:34 北京
北大✌🏻也用找工作啊,不应该是企业抢着要吗
2 回复 分享
发布于 2024-08-30 08:53 陕西
字节是秋招第二个挂我的,太难了,问的
1 回复 分享
发布于 2024-08-30 11:52 北京
不招人而已
1 回复 分享
发布于 2024-08-30 11:46 北京
佬,腾讯从什么转到什么了呢?我一直没人约面
1 回复 分享
发布于 2024-08-30 11:42 上海
佬 蚂蚁星要笔试啊?
点赞 回复 分享
发布于 2024-12-14 19:47 英国
老哥去了嘛,这个岗位怎么样啊
点赞 回复 分享
发布于 2024-09-13 19:19 北京
听说抖音的手撕就是很难。
点赞 回复 分享
发布于 2024-09-10 21:37 福建
同学,字节商业化LLM算法考虑嘛?这边可以排上队,等着面~
点赞 回复 分享
发布于 2024-09-04 18:35 北京

相关推荐

目前主流的 Embedding 模型都是 Bi-Encoder 架构(双塔模型):query 和文档各自独立编码成向量,再算余弦相似度。这种架构的优势是速度快——文档向量可以离线算好存起来,查询时只需要算一次 query 的向量就能跟整个库比对。代价是精度不如 Cross-Encoder,所以才需要两阶段检索。✴️下面是目前开源社区里最常用的几个 Embedding 模型的核心对比:✅BGE-M3(BAAI 智源):目前中文场景的首选。支持中英多语言,最大 8192 token 的上下文窗口,同时支持稠密向量、稀疏向量和 ColBERT 式多向量检索三种模式。在 MTEB 中文榜单上长期稳居前列。如果你不知道选什么,无脑选 BGE-M3 不会错。✅BGE-large-zh(BAAI 智源):专注中文的大尺寸版本,在纯中文场景下精度略高于 M3,但不支持多语言,上下文窗口也只有 512 token。适合纯中文且文档较短的场景。✅GTE-multilingual-base(阿里达摩院):阿里出品的多语言 Embedding 模型,在 MTEB 多语言榜单上表现很强。跟 BGE-M3 是直接竞品关系,两者在多语言场景下各有胜负。如果你面的是阿里,了解 GTE 是基本功。✅E5-small/base/large(微软):微软出品,特点是有从 small 到 large 的完整尺寸梯度,small 版本只有 33M 参数,特别适合资源紧张或需要部署到边缘设备的场景。精度比 BGE 略低,但推理速度快很多。✅Jina Embeddings v2(Jina AI):最大亮点是支持 8K token 的超长上下文。如果你的文档 chunk 特别长(比如整段法律条文或完整的技术文档章节),其他模型可能截断,Jina v2 能全部吃进去。✅MiniLM(微软):极致轻量级,速度最快,适合对延迟要求极高或大批量处理的场景。精度是这几个里最低的,但胜在快。🌟四种经典搭配方案1️⃣经典流水线:BGE-base2️⃣检索 Top 100 → BGE-Reranker-base3️⃣精排多语言场景:GTE-multilingual-base + GTE-multilingual-rerankerGPU4️⃣紧张:E5-small + MiniLM-L6-cross-encoder(batch 推理)5️⃣长文档 / 8K:Jina-embeddings-v2 + Jina-ColBERT-v2,段内匹配更稳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
46
45
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务