字节 大模型算法 一二三面 面经

不得不说字节效率真高

一面
拷打论文
transformer和llama的LN有什么区别,手写RMSNorm
FFN有什么不同,写Relu和SwiGLU
数据清洗流程
质量过滤用什么模型
PPL公式是什么
BERT的预训练任务、embedding
讲讲位置编码
你认为好的prompt的范式是什么
开放性问题:端到端的大模型和多个小模型,各自的优缺点是什么
手撕:两道easy
当天约面

二面
拷打论文
介绍模型
数据清洗流程
采用什么样的策略、什么样的数据才会便于模型学习
数据配比能说下思路吗
主流LLM模型结构设计有什么特点
如何评估LLM
训LLM最大的困难是什么
前沿LLM有了解哪些
工具调用怎么实现
国内LLM有了解哪些
LLM推理能力的天花板现在是什么程度
无手撕
面我1h,口干舌燥
当天约面

三面
问硬件、硬件利用率
讲讲deepspeed几个阶段,分别分片什么、代价是什么
模型训练时间如何估计
DP和DDP的区别
最多用过多少张卡
训练过程如何做模型监控
数据配比怎么量化才是一个好的方案
讲一下预训练数据处理
预训练和SFT如何评估
encoder-decoder、encoder、decoder区别
讲一下文本输入大模型到输出的过程
decoding策略
大模型结构有哪些变化
拷打论文
手撕:cross-attention

部门就不开盒了,仅供参考
另外,秋招真是太耽误打游戏了
不说了,猿神,启动!
全部评论
猜是电商
2 回复 分享
发布于 2024-08-21 23:32 黑龙江
字节的一面还是这么爱问八股😄
2 回复 分享
发布于 2024-08-21 11:39 北京
这个 RMS NORM 和 reliable swilu 手写是写代码还是公式呀
2 回复 分享
发布于 2024-08-21 01:52 北京
想问一下:LLM推理能力的天花板现在是什么程度 这个怎么回答好一些呀
点赞 回复 分享
发布于 2024-10-02 16:12 加拿大
主流LLM模型结构设计有什么特点 这个怎么回答呀,大佬?
点赞 回复 分享
发布于 2024-09-22 17:41 美国
数据配比这个怎么答呀
点赞 回复 分享
发布于 2024-09-04 21:02 北京
求问prompt范式是什么
点赞 回复 分享
发布于 2024-08-26 20:40 天津
代码占比大吗,感觉除了手撕部分,其他都蛮简单😂,手撕估计得稍微看下底层源码了
点赞 回复 分享
发布于 2024-08-24 10:16 广东
优秀
点赞 回复 分享
发布于 2024-08-23 18:40 北京
太强了
点赞 回复 分享
发布于 2024-08-21 23:12 广东
几天速通啊佬😂
点赞 回复 分享
发布于 2024-08-21 21:10 北京
请问是电商吗
点赞 回复 分享
发布于 2024-08-21 14:46 广东

相关推荐

攒人品中,祝大家都能拿到满意的Offer!1.项目拷打2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性4如果模型生成的排序导致广告主出现竞价上的博弈呢5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
查看9道真题和解析
点赞 评论 收藏
分享
祝大家都能拿到满意的Offer!1.项目拷打2.你们这里说的分层混合编排式 Agent 架构设计是具体怎么做的3.我问一个就是你们在Routing那里,你会根据难度去做不同的一个处理,对吧?那你们这个难度是怎么划分的呢4.你刚才提到就是说,比方说如果刚开始有动态升级的一个范式,就是比方说这个任务刚开始被分配到了7B但是如果它在生成的过程当中,置信度或者说生成的结果它的置信度比较低,你们这个置信度是怎么生成的呢5.你们大概配备了多少个工具6.以风险评估为例,你们的输入输出分别是什么呢7.你的字段是什么8.比方说你说的收缩压这个字段,在用户的问题当中可能不会有这样的一个检测数据。那这种情况你们是怎么来处理呢9.我看到你这里有说在引入了应用层的MOE按照任务动态的激活专家路径,这个具体是怎么实现的呢10.这里就有个问题,我们针对不同的科室去训练一个微调专家,那你们是你们怎么训练的呢?怎么针对于不同科室去训练的,第二个问题就是逻辑上你们这个专家数量可不会少,然后你们的工作量会比较大,这个问题你们又是怎么解决的呢11.你们最终大概是用了多少个专家12.每个大概训练的数据量是多少呢13你们的这个70b模型用的是自己?从头开始预训练的吗?还是用的开源的14那你们医疗数据你们医疗数据的主要来源是在哪里呢?
查看14道真题和解析
点赞 评论 收藏
分享
评论
50
263
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务