米哈游llm算法实习面经 狠狠被拷打

被横向挂了,希望发出来对大家有帮助!
1* 简单概述你简历中的两个项目,包括项目背景以及你的具体分工,是独立完成还是团队协作
2* 项目的数据来源是什么?你是如何确定优化目标的?
3* 比如数据从 100 条扩充到 1.2 万条,是否全通过自动化生成?生成的样本具体是什么样的?举个例子说明一下生成前后的对比
4* 怎么保证自动化生成数据的正确性呢
5* 在通过调整参数直到模型回答正确为止的过程中,是否意味着生成的CoT中存在错误逻辑?
6* 经过数据清洗后,最终用于SFT的有效数据量是多少?
7* 在做微调时,除了 LoRA 是否对比过其他的微调算法
8* 你是如何评价微调效果的?测试集的比例是多少?微调前后的准确率分别是多少?原有的模型性能保留了多少?
9* LLM常用的结构是什么?
10* 说一下Transformer 的整体结构
11* 目前主流大模型最常用的位置编码是什么?。
12* 写一下多头注意力机制的数学公式。
13* 公式中为什么要除以 \sqrt{d_k}?其对梯度消失或梯度爆炸有什么影响?
14* 在 Transformer 的 Encoder 和 Decoder 中,哪些部分是可以并行计算的,哪些不可以?
15* 除了 LoRA,你还了解哪些微调方法?
16* 大模型训练通常使用什么损失函数
17* 在机器学习基础中,二分类问题、多分类问题以及回归问题分别使用什么损失函数?
18* 你了解哪些优化算法
19* 模型训练中出现过拟合的常用解决方案有哪些?
20* Dropout 在训练阶段和预测阶段的处理方式是否一致?为什么要这样做?
21* 大模型中的“复读机问题重复生成是什么原因导致的?如何从解码策略或训练层面解决?
22* 幻觉问题产生的原因是什么?目前常用的工程解决方案有哪些?
23* 写出逻辑回归的数学公式。
全部评论
项目数据怎么来的
点赞 回复 分享
发布于 昨天 10:42 北京
可以问一下主包 bg 吗
点赞 回复 分享
发布于 03-11 19:50 江苏

相关推荐

03-10 11:23
门头沟学院 Java
点赞 评论 收藏
分享
刚刷到字节跳动官方发的消息,确实被这波阵仗吓了一跳。在大家还在纠结今年行情是不是又“寒冬”的时候,字节直接甩出了史上规模最大的转正实习计划——ByteIntern。咱们直接看几个最硬的数,别被花里胡哨的宣传词绕晕了。首先是“量大”。全球招7000多人是什么概念?这几乎是把很多中型互联网公司的总人数都给招进来了。最关键的是,这次的资源分配非常精准:研发岗给了4800多个Offer,占比直接超过六成。说白了,字节今年还是要死磕技术,尤其是产品和AI领域,这对于咱们写代码的同学来说,绝对是今年最厚的一块肥肉。其次是大家最关心的“转正率”。官方直接白纸黑字写了:整体转正率超过50%。这意味着只要你进去了,不划水、正常干,每两个人里就有一个能直接拿校招Offer。对于2027届(2026年9月到2027年8月毕业)的同学来说,这不仅是实习,这简直就是通往大厂的快捷通道。不过,我也得泼盆冷水。坑位多,不代表门槛低。字节的实习面试出了名的爱考算法和工程实操,尤其是今年重点倾斜AI方向,如果你简历里有和AI相关的项目,优势还是有的。而且,转正率50%也意味着剩下那50%的人是陪跑的,进去之后的考核压力肯定不小。一句话总结: 27届的兄弟们,别犹豫了。今年字节这是铁了心要抢提前批的人才,现在投递就是占坑。与其等到明年秋招去千军万马挤独木桥,不如现在进去先占个工位,把转正名额攥在手里。
喵_coding:别逗了 50%转正率 仔细想想 就是转正与不转正
字节7000实习来了,你...
点赞 评论 收藏
分享
评论
1
7
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务