度小满算法面经

1. 自我介绍
2. 问推荐项目(item2item原理与实现方式 clip原理以及vision transformer可行性 选择word2vec的原因 word2vec原理 类型 为什么快 黑白标比例 平衡比例的方法 评价指标)
3. 问大模型的了解 ROPE
4. 问实习项目(目的 模型选型原因 其他基于注意力机制的序列模型不行的原因 效果好坏)
5. 手撕代码 递归版本的反转列表
全部评论

相关推荐

结合最近辅助修改的简历及项目,老师总结了部分大模型微调简历的踩雷点。🙅‍♂️错误示范:在 x任务中,获取 xxx 条数据,通过规则 or 脚本清洗出 x 条数据,然后微调 y 大模型,在业务上提升 x 个点。✍🏻原因:大模型微调的平台是现成的,基模是现成的,体现不出核心能力。✅应该怎么写?首先介绍业务背景:业务是一个销售对话业务,机器人是销售,代替真人,直接面对用户。我们会给模型设定任务,任务是 prompt 。步骤1️⃣.提取训练数据问题:1.真人通话每通电话任务是未知的,我们训练数据是任务+通话的 pair 对。2.真人通话很乱,与客户的对话是各种交叉的,导致 asr 后并不是一人一轮。解决方案:1.首先通过大模型 prompt 对该通电话提取任务,得到任务+ pair 对。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根据以上任务和真人对话,让大模型编写出通话内容。提问,为什么要编写而不是直接用?步骤2️⃣.制定训练数据集问题:1、正常的对话内容,前面几句和后面几句基本上一致的。都是问候和拜拜,但是也有一些差异。2、因为都是相似场景,虽然任务不同,但是很多场景语义很相似。解决方案:1、基于轮次的权重采样:通过轮次设定权重进行 weighting sample 。解决问候和拜拜的高占比问题。2、基于语义的采样:使用 bert 对对话内容进行 embedding ,然后使用层次聚类通过调节阈值聚类出相似语义的类。对一个类里的样本进行随机采样,提问,为什么要对重复语义的数据进行下采样?3、基于客户类型和产品的采样,因为很多产品是热品,导致对话内容有偏,用户类型一样,需按照类型调整整体比例采样。提问,为什么要这么采样?步骤3️⃣.制定训练数据集我们直接把输出当作 target 进行训练。使用的 lora 训练,但是 lora alpha 设定成为4倍的时候达到了比较好的效果,经验值不同任务不一样,提问,在各种情况下要怎么调?步骤4️⃣.dpo训练问题:v1版本训练时,很多输出内容是对的,但是输出的语气不太像真人,机器人味还是很严重。解决方案:由于训练本身是有 ground truth 的,因此使用v1训练的模型,预测训练集,使用大模型对比两者语气不符合训练集的拿出来,使用训练集的 ground truth 和模型的预测数据作为 dpo 训练对,对v1版本模型重新训练。📳这里老师只是简要进行概括解答,具体情况和详细解答可以咨询辅导,如果想了解项目辅导,提升面试能力,欢迎后台联系。#算法# #简历中的项目经历要怎么写# #算法岗面试# #互联网大厂招聘#
点赞 评论 收藏
分享
05-08 17:04
已编辑
浙江大学 算法工程师
面试问题:- (针对简历提问)你工作里主要关注哪些指标?解释一下AUC含义、计算和作用- 主流的开源大模型结构有哪些?(prefix decoder,casual decoder、encoder-decoder)- 介绍一下layernorm和batchnorm的区别?- 在机器学习里,怎么处理长尾数据和多峰数据?- 怎么解决模型的冷启动问题,你觉得LLM在冷启动方面能够起到什么作用?- 介绍一下常见的优化算法(SGD ->Adagrad ->RMSProp ->Adam -> AdamW)?优缺点- 为什么Adam不一定最优而SGD最优的?怎么理解分析?- (针对简历提问)你工作里的对比损失是怎么构造的,有什么作用?介绍常见的对比损失的公式。代码题:- 数组第K大。给定整数数组 nums 和整数 k,请返回数组中第 k 个最大的元素。(力扣215原题)- 手写对比损失的计算(结合项目),并简单说了一下原理。(大概写出来就好)二面我这个是交叉面,提问的有部分设计大模型,也当然我简历上有大模型,所以问了一些llm+搜推的内容,但这部分交叉问题比较浅,能说个大概就很好,同时也有很多经典的机器学习面经问题。因为项目里提到了对标学习,所以面试官在代码考核部分让我写个示例,所以写进简历的一定要准备好(包括流程步骤,代码实现大概要清楚)。面广告算法的岗位,机器学习面经暴率很高,建议熟背,就算是看过有印象,问到的时候也会基本很稳。#面试问题记录#
点赞 评论 收藏
分享
bg:双9,2024级硕,传统工科专业,算法知识范围仅限知道一些机器学习理论,了解基本的pytorch语法,打算砖码算法岗位,计划研1下找一段实习,从今年3月初已经开始在各大平台搜索实习经验了。转码时间线:2.28开始有实习想法,但是在岗位上纠结,在后端,大模型岗位纠结。最终决定大模型岗3.1-3.7吴恩达机器学习3.8-3.21李沐深度学习3.22开始刷leedcode3.24开始做简历3.24-3.25在github上跑开源项目:BERT部署+文本分类3.25-4.1在github上跑开源项目:ChatGLM-6B部署+LLaMA-Factory微调+Prompt模板3.27注册BOSS直聘3.28参加了第一场初创公司大模型的面试,感觉面试还可以,基本上能hold住但最后也都无疾而终了,盲猜可能是技术栈不太相符以及觉着我是低年级。3.29-4.5在github上跑开源项目:Llama3-8B+RAG4.7收到三家公司面试4.7下午面试一家中厂,问题太工程,而我是凑开源项目+偏算法理论性的科研,完全经不住拷打。4.8收到第一个offer,岗位感觉偏大模型调研,拒绝。4.10收到第二个offer,离学校路程半小时+大模型核心岗,但小厂,接收。回归整个实习准备,对我个人而言其实最难的是不断细化调整方向,以及在面试pass被无数次的心态调整,但总体来说是看着自己一步步的进步。记得第一次修改简历时,我对着空白文档发呆了两个小时,如今却能快速抓住岗位JD的关键词进行精准匹配;曾经在群面中紧张到声音发抖,现在面对压力面试已经能从容展现逻辑思维。#大模型##研究生##面试##实习##硕士#
大模型海文:项目地址可以开源给大家 后台T一下
点赞 评论 收藏
分享
评论
2
6
分享

创作者周榜

更多
牛客网
牛客企业服务