网易有道 算法大模型实习(2025.01.23) 1h
1、自我介绍
2、项目介绍
3、项目指令集构建细节
4、RAG怎么做的,召回效果
5、Lora原理,微调哪些层、怎么矩阵初始化的,不能都初始化为0吗?
6、bert了解吗?bert的改进了解吗?bert和gpt有什么区别?
7、transformer自注意力,计算过程,softmax为什么要进行缩放,不缩放会导致什么?
8、llm的解码参数(top-k,top-p,Temperature,Beam Search)
9、clip的对比学习,对比学习中的Temperature和llm解码器的Temperature是一个东西吗?
10、了解blip吗?
11、聊了一下论文的做法,问了为什么这么做,不那么做
12、强化学习,ppo,dpo
13、reward模型的损失函数(rank loss)?
14、算法题:钥匙和房间(问为什么不用python写
),写完思路就行了,没调,因为输入输出好像有问题,面试官说这样就行了。
15、反问
面试官很好,我没讲对的会纠正我。
最后反问学习建议的时候,他说下次面试别切屏
。
更新:面完10分钟约了二面
#算法##大模型算法工程师##面经#
2、项目介绍
3、项目指令集构建细节
4、RAG怎么做的,召回效果
5、Lora原理,微调哪些层、怎么矩阵初始化的,不能都初始化为0吗?
6、bert了解吗?bert的改进了解吗?bert和gpt有什么区别?
7、transformer自注意力,计算过程,softmax为什么要进行缩放,不缩放会导致什么?
8、llm的解码参数(top-k,top-p,Temperature,Beam Search)
9、clip的对比学习,对比学习中的Temperature和llm解码器的Temperature是一个东西吗?
10、了解blip吗?
11、聊了一下论文的做法,问了为什么这么做,不那么做
12、强化学习,ppo,dpo
13、reward模型的损失函数(rank loss)?
14、算法题:钥匙和房间(问为什么不用python写
15、反问
面试官很好,我没讲对的会纠正我。
最后反问学习建议的时候,他说下次面试别切屏
更新:面完10分钟约了二面
#算法##大模型算法工程师##面经#
全部评论
相关推荐
07-01 21:22
陕西师范大学 Java 快乐的打工人求off...:GC回收主要是针对虚拟机中的堆中的对象,堆分为两部分,新生代和老年代,对新生代的垃圾回收称为minorGC,发生较为频繁,对老年代的GC称为majorGC,发生次数少但代价高;在GC开始之前,需要先标记出垃圾,一般有2种方法,引用计数法和可达性分析法;标记出对象之后需要进行垃圾回收,包括标记-清除算法,复制算法,标记-整理算法和分代回收算法。

点赞 评论 收藏
分享