米哈游llm算法实习面经 攒人品

给我面没招了,发点面经攒攒人品~
1* 项目拷打
2* 项目的数据来源是什么?你是如何确定优化目标的?
3* 比如数据从 100 条扩充到 1.2 万条,是否全通过自动化生成?生成的样本具体是什么样的?举个例子说明一下生成前后的对比
4* 怎么保证自动化生成数据的正确性呢
5* 在通过调整参数直到模型回答正确为止的过程中,是否意味着生成的CoT中存在错误逻辑?
6* 经过数据清洗后,最终用于SFT的有效数据量是多少?
7* 在做微调时,除了 LoRA 是否对比过其他的微调算法
8* 你是如何评价微调效果的?测试集的比例是多少?微调前后的准确率分别是多少?原有的模型性能保留了多少?
9* LLM常用的结构是什么?
10* 说一下Transformer 的整体结构
11* 目前主流大模型最常用的位置编码是什么?。
12* 写一下多头注意力机制的数学公式。
13* 公式中为什么要除以 \sqrt{d_k}?其对梯度消失或梯度爆炸有什么影响?
14* 在 Transformer 的 Encoder 和 Decoder 中,哪些部分是可以并行计算的,哪些不可以?
15* 除了 LoRA,你还了解哪些微调方法?
16* 大模型训练通常使用什么损失函数
17* 在机器学习基础中,二分类问题、多分类问题以及回归问题分别使用什么损失函数?
18* 你了解哪些优化算法
19* 模型训练中出现过拟合的常用解决方案有哪些?
全部评论
这个聊的真的多啊
点赞 回复 分享
发布于 03-22 21:48 北京
米哈游感觉面试难啊
点赞 回复 分享
发布于 03-14 14:35 四川
米哈游感觉面试难啊
点赞 回复 分享
发布于 03-13 23:31 北京

相关推荐

04-22 16:17
已编辑
电子科技大学 算法工程师
看了大家不少面经,我也发发面经攒人品✉️投递:3.18💬面试:一面 3.23 二面 3.25 三面 4.3 HR面 4.13📝offer:4.21🎙️我的感受:我由于测评不高,面到HR面的时候非常的焦虑,很怕因为测评给我挂了我投的淘天全挂了,可能就是因为测评不行吧总体下来阿里的面试官还是挺尊重的,拷打的很详细bg:双九,一段小厂对口实习面试主要内容狠狠拷打简历,实习内容,问的非常详细,会问到你负责了什么,用了多少张卡,学习率怎么样,训练了多久,用了多少数据,数据是怎么准备的,显存占用怎么样场景题:如果我目前有一个数字人的模型,我想训练成只生成一个人的,可以怎么做你看过什么别的 SOTA 模型的 ref image 注入方式,有什么优劣八股:如何判断模型是否收敛如果训练的时候梯度消失或者爆炸,你怎么解决如何系统判断是否训练完成,特别是在视频生成模型中有哪些常见的蒸馏方法LoRA 微调的原理DiT 的框架流程,如何时间注入,讲一讲 AdaLN讲一下 flow Matching,原理,优势现在为什么大家都用 RMSNorm 而不是 LayerNormAdam 和 AdamW 的原理,有什么改进手撕:1. 二叉树的右视图2. 非 hot 100,滑动窗口3. 扎破所有气球的最少箭数暑期实习还是太折磨了,我面了好多场,一直在泡池子。。。腾讯二面给我泡了13天然后挂,米哈游一面挂,快手简历挂。。。看到身边同学都拿到offer了,那是一个焦虑啊,本来都想转日常了。最后总算是有一个结果了
查看15道真题和解析
点赞 评论 收藏
分享
评论
点赞
6
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务