猿辅导 大模型推理引擎开发实习生 - 一二面 (oc)

猿辅导两面一共撕了5道题。

1. cuda kernel撕了reduce_sum、conv2d、实习写的一个kernel
2. cpp手撕循环buffer和单链表冒泡排序
3. 一面主要聊的是实习的cuda优化整体内容,然后聊大模型推理的内容
4. 二面上来写题,然后聊大模型推理、vllm、模型量化相关内容。
5. 问了二面面试官组内情况,整体感觉很好,但可惜接了蔚来offer,就没准备去了
全部评论
神,蔚来什么岗,怎么不去猿辅导
1 回复 分享
发布于 03-16 14:25 安徽
840我犹豫都不带犹豫一下的
点赞 回复 分享
发布于 03-26 22:02 广东
我超,猿!?
点赞 回复 分享
发布于 03-13 22:45 江苏

相关推荐

论文题目:Prolonged Reasoning Is Not All You Need: Certainty-Based Adaptive Routing for Efficient LLM/MLLM Reasoning论文地址:https://arxiv.org/pdf/2505.15154论文详解:https://mp.weixin.qq.com/s/_Rhj8TQFgRFka9xj3xwBpQ核心贡献1、提出了一个基于模型置信度动态切换短答案和长形式推理的 CAR 新框架,实现了准确性和计算效率之间的最佳平衡。2、通过广泛的初步研究,验证了困惑度(PPL)可以作为模型置信度的可靠指标,并通过高斯建模建立了其与答案正确性的关系。3、在 LLM 和 MLLM 上进行的广泛实验表明,CAR 在保持推理准确性的同时,显著减少了推理标记的使用,优于短答案和长形式推理方法。4、CAR 超越了以前的推理标记减少方法。例如,使用 Qwen2.5 时,CAR 在整体准确率上提高了 6.9%,同时减少了 21.4% 的标记消耗。使用 Llama3.1 时,它实现了 5.5% 的准确率提升和 39.0% 的标记使用减少。实现方法1、使用包含短答案和长形式推理答案注释的示例进行训练,通过标准指令调整过程优化交叉熵损失。2、在训练数据集的所有示例上进行短答案推理,计算每个短答案的 PPL 值。 3、假设正确和错误短答案的 PPL 分布遵循高斯分布,通过训练数据估计这些分布的参数。4、对于新的输入示例,首先生成短答案并计算其 PPL 值,然后根据 PPL 值在正确和错误分布下的概率进行决策。如果短答案被认为是正确的,则直接输出;否则,模型将执行长形式推理以获得更准确的答案。
点赞 评论 收藏
分享
评论
2
13
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务