狗东对不起,我要去腾讯了

呜呜呜第一次毁约,虽然说只是暑期实习offer,但心里还是好有负罪感。面试的时候口口声声说东子我肯定去,结果腾讯offer一来又抛弃你,抱歉狗东不是狗东你不好,,但是腾讯的双休不加班还有氛围更有诱惑力在身边一众大佬的劝说下以及对象的支持,还有我内心的想法,放弃你了狗东别把我拉黑名单
全部评论
一口一个🐶冬,东子看看我吧,给我个offer
7 回复 分享
发布于 03-19 13:44 上海
不要啊,来东做兄弟
1 回复 分享
发布于 03-20 12:45 广东
佬请问拿了又拒暑期offer就会被拉进黑名单吗
1 回复 分享
发布于 03-20 12:28 湖南
佬来点面经
1 回复 分享
发布于 03-19 19:12 江苏
🐮
1 回复 分享
发布于 03-19 12:37 安徽
楼主能不能来个东子数据库的面经,十分感谢
点赞 回复 分享
发布于 04-11 16:40 陕西
太强了
点赞 回复 分享
发布于 04-03 20:09 安徽
老哥,这岗位咱俩差不多。都不是开发岗
点赞 回复 分享
发布于 03-27 11:17 上海
实习薪资还有晒的吗
点赞 回复 分享
发布于 03-21 19:05 黑龙江
哪有1.1w呀 我是9.5k
点赞 回复 分享
发布于 03-20 18:17 广东
鹅涨价了? tme?
点赞 回复 分享
发布于 03-20 16:08 广东
二月开始投了一个月零面试,还以为是安大不行原来是我不行
点赞 回复 分享
发布于 03-20 13:30 安徽
佬1.1w是包含了什么内容。最近也要去了
点赞 回复 分享
发布于 03-20 13:15 北京
???涨价啦???
点赞 回复 分享
发布于 03-20 10:54 北京
接好运
点赞 回复 分享
发布于 03-19 15:11 陕西

相关推荐

1. 基础概念题:什么是大模型核心加速技术中的 “算子融合”?举例说明其作用。答案要点:算子融合是将多个连续计算算子合并为一个,减少计算图中的节点数和显存读写次数,降低延迟。举例:如将 Transformer 中的 Add(残差连接)与 RMSNorm(归一化)融合,减少两次内存访问,提升推理速度。2. 技术原理题:Flash Attention V2 如何优化注意力计算效率?与 V1 的核心区别是什么?答案要点:• V1:通过分块计算注意力,减少显存占用(避免存储所有中间键值对)。• V2:引入 “内外循环交换策略”,将矩阵乘法的循环顺序调整为更适合 GPU 并行计算的模式,进一步提升计算效率,尤其在长序列场景下加速明显。3. 量化技术中,FP8、INT4 AWQ、INT4-FP8 AWQ 的适用场景和压缩率有何差异?4. RAG 系统中,文档切分粒度如何影响检索和生成效果?实际中如何确定最优粒度?5.在长序列推理场景中,PagedAttention 和 Prefix Caching 分别解决什么问题?如何配合使用?答案要点:• PagedAttention:将 KV Cache 分块存储在非连续显存中,避免显存碎片,支持处理超长序列(如百万 Token);• Prefix Caching:缓存历史对话的 KV 对,跨请求复用,减少重复计算(如多轮对话中复用上文缓存)。配合逻辑:PagedAttention 解决显存限制,Prefix Caching 减少计算量,两者结合可提升长对话场景的效率和稳定性。6. 在企业级推理场景中,如何根据需求选择量化方案?举例说明短文本高并发和长文本场景的优化策略。实时客服系统用 INT4 量化加速响应;金融报告生成场景用 FP8+PagedAttention 处理数千 Token 输入。
点赞 评论 收藏
分享
评论
9
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务