夸克大模型算法面经

1.项目介绍
2.讲讲你对 transformer 的了解
3.有哪些常用的解码策略, topp 和 topk 的具体细节,以及实现上的差别
4. 意图分流的 agent 怎么做微调的,用了多少数据
5.如何做 embedding 微调的,如何构造正负样例,训练的 loss 是什么
6.RAG有哪些可优化的地方
7.你的 RAG 项目中用到了 agent 吗,一般 agent 会用在RAG 链路中的哪些部分
8.做 sft 时是怎么做数据配比的,参数具体怎么设置的
9.RLHF的流程,有没有训过 PPO
10. deepseed 的原理,zero1,2,3怎么做的
11.了解过排序模型吗,讲几个经典的排序模型吧
12.说一下 vllm 部署8*7B的 MOE 模型每秒大概能推多少
token
13.对比学习了解吗,讲一下(比较突然,不知道为啥要问)
14.code :实现rand5到rand7
全部评论
求问有收到二面通知吗
点赞 回复 分享
发布于 11-09 00:46 陕西
大佬,这些都是八股题吗,哪些是围绕项目问的呀
点赞 回复 分享
发布于 11-08 20:20 山东

相关推荐

11-02 06:10
门头沟学院 Java
1.详细说一下dns解析它是怎么解析的,过程咋样2.Transformer你给我讲讲它底层原理,讲一下它为啥能替代RNN,我们知道Transformer架构已经很成熟了,但你觉得它的Self-Attention机制在多模态对齐上会不会存在瓶颈?有没有实际场景里注意力权重完全偏掉的情况3.说下LoRA的原理吧,LoRA是不是只能在Linear层插?你有没有了解过为什么不能插在LayerNorm之后?这会对训练稳定性造成什么影响4.你刚才提到用过QLoRA,那你能具体说说QLoRA是怎么降低资源成本的吗?常见的量化方式有哪些,QLoRA为什么选的是NF4和FP16这组组合,而不是别的组合?你能说说NF4 的分布拟合逻辑吗5.我们做了一些multi-query attention优化,但发现decoder延迟还是高,你觉得是哪里的瓶颈vLLM 本身的KV cache 是不是反而是负担7. Embedding模型和Rerank模型分别是怎么处理文本语料的?用场景举一下例子8.看你做过RAG,讲讲从数据清洗到检索服务上线这整个链路是怎么搭的,你是怎么做chunk切分的10.你觉得当前RAG的最大瓶颈在哪?你做过哪些改进来提升 Recall11.你们在训练xx领域大模型的时候,SFT 数据怎么构造12.看你做过LoRA微调,那你是怎么选rank值的?合并adapter权重的时候有没有遇到梯度爆炸13.我看你这个特长里面也有写过使用这个模型部署是吧你也做过相关模型部署的工作,那咱们能简要的说一下,我们部署的参数量模型部署的参数量,然后还有它对应的硬件之间的需求关系,比如说我每个参数量的模型所需要的算力需求大概是什么?先给出一个题吧,我们部署一个MOE架构的千分三的235b的一个模型,他所需要的算力大概是多少?14. 比如rag知识库搭建就是比如说我们在搭建这个知识库的时候,需要对这个知识库的文件文档进行动态更新了,那么你之前是用的是全量嵌入还是增量处理?如果是用增量的话,那么怎么来避免新旧文档的文单的分布不一致导致的这种检索偏差的问题15.你那个机械臂的那个动作态这一块融合的这一块,然后你那个具体的数据是怎么进行一个融合的,然后这个对比协议是怎么做的16.在做多模态融合的时候,有没有做过过视觉跟文本之间的对齐任务,怎么做的
查看14道真题和解析
点赞 评论 收藏
分享
评论
3
15
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务