得物 - Go社招一面 - base长沙 - 7.10

alt

  1. 简单介绍一下中台系统
  2. 挑其中一个参与比较多的,有成就感的,有挑战的一个项目,重点描述一下这个项目的业务背景,技术架构,以及我在里面的一个角色
  3. 广告投放完之后,用户点击了广告,你们去抓取数据,为什么要抓取数据呢?你们是广告主,是付了钱的,抖音,快手,广点通他们会把数据按照你们配置的点击链接回传给你。
  4. 项目中遇到过的最大挑战是什么,怎么解决的
  5. go
    1. 遍历一个map的时候,连续遍历多次,中间没有其他代码,顺序相同的吗?
    2. 为什么顺序不同的
    3. 可以对map里面的一个元素取地址吗
    4. go里面的内存逃逸
    5. 发生内存逃逸的例子
    6. 堆栈有什么区别
    7. go里面select用在什么地方
  6. grpc
    1. http2的优缺点
  7. 团队怎么分工的,有版本的概念吗,需求谁提的呢,怎么看待这个分工的问题呢
  8. 代码及场景
func main() {
    panic("xxx")
    recover()
}

一、上面的panic会被捕获吗 给出修改代码

func main() {
	defer func() {
		if r := recover(); r != nil {
			fmt.Println("Recovered from panic:", r)
		}
	}()

	panic("xxx")
	fmt.Println("This line will not be executed.")
}

二、以下代码输出什么

func f() {
    defer fmt.Println("D")
    fmt.Println("F")
}

func main() {
    defer fmt.Println("N")
    f()
    fmt.Println("M")
}

三、 select * from tableA where a = 1; 有一个表 ,里面有一个字段 a(建了一个单字段索引),假如分析发现这个 sql没有走命中这个索引a走的全表扫码,分析一下原因。

  • 为什么当a=1比较多的时候,走全表而不走索引呢?
  • 对于非常小的表,数据库可能会选择全表扫描,为什么?
  • 除了表比较小,重复值多区分度低,还有其他可能吗?(隐式类型转换 )

四、假如有一个库(已经出现性能瓶颈了),库里面有10张表,其中两张表想迁出来,迁到一个独立的数据库里面,有什么思路。

  • 导出数据,再导入数据,再去更新代码中的数据库连接,中间这个过程中写在老库的数据就没有导入过来,不能暂停对老表的写操作。
  • 定期增量备份,会有问题,定时跑的就会有定时的时间差。不管是定时备份也好还是手动导出导入也好,都不是原子性操作,就会有时间差,有数据漏损。
#得物##Golang社招##社招##一面凉经##go#
全部评论
我面试,一道题也没问😂全程在问我想问什么,我都蒙蔽了。
点赞 回复 分享
发布于 2024-08-09 19:23 广东

相关推荐

05-16 09:55
腾讯_HR
腾讯-混元大模型面经-华5硕-主页内tui❗❗腾讯26届春招提前批/26届暑期实习生/日常实习生/25届补录招聘启动 | 所有专业类型均有岗位🏅中国民营企业500强排行榜第6位【在招岗位】1. 技术类:软件开发、技术运营、安全技术、测试与质量管理、技术研究、解决方案与服务、硬件开发2. 产品类:游戏产品、内容制作、通用产品、金融产品、项目管理3. 设计类:游戏美术、平面交互4. 市场类:战略投资、市场营销、公共关系、销售拓展5. 职能类:财经分析、人力资源、法律与公共政策、行政支持【招聘范围】应届生(24届、25届可投)、实习生(在校生可投)、青云计划(23届/24届/25届博士、24届/25届硕士)【网申链接】https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw腾讯-混元大模型面经-华5硕部门与岗位:TEG - 混元大模型团队 - 大模型对齐一面自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流了解哪些大模型,简要挑一两个介绍一下,当时说了 Qwen 和 DeepSeek,然后面试官又问了这两个有什么区别接着上一问,为什么大家都开始探索 MoE 架构,MoE 相比 Dense 有什么好处在之前实习的时候用 LoRA 微调过 Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么在 RLHF 中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式代码:22. 括号生成代码:多头自注意力一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右二面自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议之前实习用 DeepSpeed 微调过 Qwen2-72B,于是面试官问了 ZeRO-1,ZeRO-2,ZeRO-3 三个模式的区别当时你用 DeepSpeed ZeRO-3 来微调 Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存除了 DeepSpeed,还用过其他的什么优化方法吗我看你也用到了 LoRA,知道 LoRA 的原理吗,A 和 B 两个矩阵怎么初始化,有了解过其他的初始化方法吗对 RLHF 了解的多吗代码:3. 无重复字符的最长子串二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊 RLHF三面自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么 work,其他方案有考虑吗在微调 Qwen 的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的讲一下 RLHF 的流程,之前有用 RLHF 做过模型对齐吗在做对齐的时候,为什么 SFT 之后还要做 RLHF,只用 SFT 可以吗知道哪些强化学习算法,除了 PPO 和 DPO 这些呢,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进开放题:对目前大模型的发展有什么看法代码:零钱的两个题 322. 零钱兑换518. 零钱兑换 II三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导四面自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写 RLHF,平常有用过 RLHF 吗推导一下神经网络反向传播的过程一道排列组合的概率题开放题:你觉得大模型目前还有哪些可以改进的点四面整体更看重思维和基础,没有考察什么八股总结一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面腾讯-混元大模型面经-华5硕-主页内tui腾讯-混元大模型面经-华5硕-主页内tui❗❗腾讯26届春招提前批/26届暑期实习生/日常实习生/25届补录招聘启动 | 所有专业类型均有岗位🏅中国民营企业500强排行榜第6位【在招岗位】1. 技术类:软件开发、技术运营、安全技术、测试与质量管理、技术研究、解决方案与服务、硬件开发2. 产品类:游戏产品、内容制作、通用产品、金融产品、项目管理3. 设计类:游戏美术、平面交互4. 市场类:战略投资、市场营销、公共关系、销售拓展5. 职能类:财经分析、人力资源、法律与公共政策、行政支持【招聘范围】应届生(24届、25届可投)、实习生(在校生可投)、青云计划(23届/24届/25届博士、24届/25届硕士)【网申链接】https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw腾讯-混元大模型面经-华5硕部门与岗位:TEG - 混元大模型团队 - 大模型对齐一面自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流了解哪些大模型,简要挑一两个介绍一下,当时说了 Qwen 和 DeepSeek,然后面试官又问了这两个有什么区别接着上一问,为什么大家都开始探索 MoE 架构,MoE 相比 Dense 有什么好处在之前实习的时候用 LoRA 微调过 Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么在 RLHF 中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式代码:22. 括号生成代码:多头自注意力一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右二面自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议之前实习用 DeepSpeed 微调过 Qwen2-72B,于是面试官问了 ZeRO-1,ZeRO-2,ZeRO-3 三个模式的区别当时你用 DeepSpeed ZeRO-3 来微调 Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存除了 DeepSpeed,还用过其他的什么优化方法吗我看你也用到了 LoRA,知道 LoRA 的原理吗,A 和 B 两个矩阵怎么初始化,有了解过其他的初始化方法吗对 RLHF 了解的多吗代码:3. 无重复字符的最长子串二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊 RLHF三面自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么 work,其他方案有考虑吗在微调 Qwen 的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的讲一下 RLHF 的流程,之前有用 RLHF 做过模型对齐吗在做对齐的时候,为什么 SFT 之后还要做 RLHF,只用 SFT 可以吗知道哪些强化学习算法,除了 PPO 和 DPO 这些呢,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进开放题:对目前大模型的发展有什么看法代码:零钱的两个题 322. 零钱兑换518. 零钱兑换 II三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导四面自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写 RLHF,平常有用过 RLHF 吗推导一下神经网络反向传播的过程一道排列组合的概率题开放题:你觉得大模型目前还有哪些可以改进的点四面整体更看重思维和基础,没有考察什么八股总结一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面
点赞 评论 收藏
分享
评论
1
9
分享

创作者周榜

更多
牛客网
牛客企业服务