腾讯拒后又来 wxg视频号内容理解一面

半个面经,许愿
腾讯5.20-5.22三天四面,5.20上午视频号风控算法,下午被转部门pcg中台算法,随后三天三面第四天offer,不过最后因为在深圳而且觉得业务线和岗位都一般,还是拒了,可以看我上一个帖子,hr电话打来我说的不想离开上海。后面本来是准备去pdd,结果上周四5.6下午突然hr打电话,问wxg视频号内容理解面不面,base广州能不能来,我:能。然后约了6.7面试。

总之是背景,6月捞人是被之前的大佬鸽了?

自我介绍之后让我挑一个自己觉得不错的项目讲,我挑了在投的论文(大模型相关),没有仔细追问,之后一些八股。问了transformer为什么多头,追问那拼在一起不行吗,再追问还有优点吗;又问8个头如果特征信息只集中在几个怎么办;问了lora原理,chat-glm,bert和gpt,llama的结构和特点和区别(论文有用到),我把能想到的都说了,还特意留下了追问空间不过面试官没再问。我八股一般,都是面试前现学现卖,感觉问得不算特别深。

之后是场景题,关于视频号几万个热点,几十万个发布,有文字、图片、视频,如何构建算法给发布打标。面试官会引导。

最后做题,运气比较好刚好有印象,字符串最长无重复子串,直接写了,面试官说过了之后提醒下次做题可以写成函数。反问问了面试官主要工作内容,说是业务导向的内容理解算法,业务占比高,我再次表示很理解业务是核心以及很想加入以及我很乐意去广州并且愿意尽快入职(pcg:?)。初试秒过。复试如果有也要节后了,感觉发挥已经是暑期面试里非常靠前的,如果最后没成也问心无愧,运气问题,但还是希望能有吧。

当天还聊了字节电商知识图谱的一个组,做的题还挺有意思,是他们的新题。聊得不错,不过字节暑期就是很卷很pua想留用的实习生必须有“一个完整项目的产出”,用来做转正保底太折磨了,所以本来就没准备去,但碰到了所以聊一下。三四月时候状态不好没有投字节,五月拿了一些offer也就没投,六月这个确实是碰上了。也不算可惜吧毕竟我做题不行有点神鬼莫测。

本来已经和pdd定好了入职,但视频号这个面试又让我有了点别的想法。还有6月被wxg捞的佬吗?

许愿复试,许愿hr面,许愿offer。给的话就准备去了。
全部评论
哥们最后去了吗
点赞 回复 分享
发布于 2024-12-03 11:08 河北
蹲蹲后续,现在进度如何了呢
点赞 回复 分享
发布于 2024-06-13 15:54 安徽

相关推荐

给我面没招了。。。1. 项目拷打2. 详细阐述Transformer的底层原理,并说明其能够替代RNN的核心优势;结合Transformer架构的成熟度,分析Self-Attention机制在多模态对齐任务中是否存在瓶颈,以及在实际业务场景中,是否出现过注意力权重完全偏移的情况。3. 讲解LoRA的技术原理,说明LoRA是否仅能嵌入Linear层;分析LoRA无法在LayerNorm层之后插入的原因,以及该操作会对模型训练稳定性产生哪些具体影响。4. 结合实操经验,说明QLoRA降低训练资源成本的核心逻辑;列举常见的模型量化方式,并解释QLoRA选择NF4与FP16组合而非其他方案的原因,阐述NF4的分布拟合逻辑。5. 针对采用multi-query attention优化后,decoder延迟仍居高不下的问题,分析潜在性能瓶颈;探讨vLLM自带的KV Cache是否会成为推理过程中的负担。6. 分别说明Embedding模型与Rerank模型处理文本语料的核心流程,并结合实际应用场景举例说明。7. 结合过往RAG项目经验,讲解从数据清洗到检索服务上线的完整链路搭建流程,重点说明chunk切分的具体策略。8. 分析当前RAG技术落地的最大瓶颈,并阐述你在项目中采取过哪些优化手段来提升检索召回率(Recall)。9. 针对XX领域大模型的训练工作,说明SFT(监督微调)数据集的构造方法与核心思路。10. 结合LoRA微调实操经历,说明rank值的选择依据;在合并adapter权重的过程中,是否遇到过梯度爆炸问题,以及对应的解决方法。11. 结合你的模型部署相关经验,说明模型参数量与硬件算力需求之间的对应关系(例如不同参数量级模型所需的算力配置标准);以部署一个稀疏率千分之三的235B参数量MOE架构模型为例,估算其所需的算力规模。12. 在搭建RAG知识库时,若需对文档进行动态更新,你采用的是全量嵌入还是增量处理方案?若为增量处理,如何规避新旧文档数据分布不一致导致的检索偏差问题。
点赞 评论 收藏
分享
评论
3
4
分享

创作者周榜

更多
正在热议
更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务