推理加速该投什么岗

RT  投算法每次能过简历但是一面试就说我bg偏工程…但是看开发岗也没有跟大模型推理沾边的  就很迷惑

#秋招#  #面试#  #算法#  #大模型#  #大模型推理#
全部评论
为啥不直接投大模型推理的岗?
2 回复 分享
发布于 2024-07-15 15:20 北京
欢迎投递英伟达计算机架构!
2 回复 分享
发布于 2024-07-11 11:25 香港
可能投到research岗去了,找找工程侧的算法
1 回复 分享
发布于 2024-07-17 10:03 北京
m
点赞 回复 分享
发布于 2025-08-12 23:28 江苏
m
点赞 回复 分享
发布于 2024-10-14 11:40 新加坡
AI软件开发这之类的岗位
点赞 回复 分享
发布于 2024-08-30 12:37 湖北
做部署的也不知道投什么岗大佬方便交流下嘛
点赞 回复 分享
发布于 2024-08-24 20:16 北京
部署的一般算在软开里面,也有算作算法的比如华子
点赞 回复 分享
发布于 2024-08-16 03:39 上海
有的后端岗位也有做推理加速的
点赞 回复 分享
发布于 2024-07-17 18:38 上海
芯片厂
点赞 回复 分享
发布于 2024-07-16 07:44 北京
m
点赞 回复 分享
发布于 2024-07-15 18:20 浙江
m
点赞 回复 分享
发布于 2024-07-14 20:35 台湾
Mark
点赞 回复 分享
发布于 2024-07-11 17:57 福建
m
点赞 回复 分享
发布于 2024-07-06 01:07 浙江

相关推荐

03-23 20:09
已编辑
百度_高级研发工程师
刚面完一把大厂的 AI 核心业务线,遇到个懂行的总监,一直在大模型微调这块给我挖坑,估计想看我是不是那种只会调第三方 API 的“外包型开发”。顺手把面试过程复盘一下,供后端转 AI 方向的兄弟们参考。一、 避坑:千万别在简历上乱吹“全量微调”很多后端兄弟为了简历好看,上来就写自己主导了全量微调(Full Parameter Fine-tuning)。这在懂行的人听来挺扯的,全量微调极其烧钱,动辄几百张 A100 显卡,普通业务线哪来这个算力和预算去给你折腾。面试时我直接兜了底:结合咱们真实的业务场景,我只参与了指令微调(SFT)和参数优化。其实大厂现在勒紧裤腰带,最看重的就是“花小钱办大事”,精准踩中降本增效和 ROI 才是正解。二、 被追问的深水区:怎么防“灾难性遗忘”后来聊到把公司的私有业务数据喂给开源大模型时,总监顺理成章地问到了“灾难性遗忘”——模型学了公司的业务黑话,结果连基础的逻辑推理都不会了。应对这个,我切入了用正则化(Regularization)做权重约束的方案。作为 Java 开发,能把这俩概念用大白话解释清楚,面试官基本就认可你的算法底子了:L1 正则化 (Lasso): 核心在于惩罚项 \lambda \sum |w|。它的特性是会产生稀疏矩阵,能把大模型里很多不重要的特征权重直接清零。我结合了他们公司的端侧场景聊:在智能硬件上部署模型,内存和算力死贵。利用 L1 的稀疏性可以大幅压缩模型体积,在不怎么掉精度的情况下,保住端侧的推理速度。L2 正则化 (Ridge): 核心是 \lambda \sum w^2。它不会把权重变 0,而是让其变得平滑。大模型的底座参数是跑了万亿 Token 炼出来的完美状态,加新知识时,L2 就像个限流器,防止底座权重发生剧烈漂移。这样既吸收了业务知识,又不会过度拟合。三、 找准后端的生态位:不抢算法的活最后面试官试探性地问:“既然算法原理这么熟,那这微调的训练代码是你用 Python 写的吗?”这绝对是个坑。做后端的一定要守住自己的边界,不能瞎揽活,我当时直接拉回 Java 主场:“炼丹跑 PyTorch 脚本主要是算法团队在搞。作为后端,我在微调链路里的核心价值是做‘数据工程化’。大家都知道 Garbage in, Garbage out,微调的上限全看数据质量。我主要用 Java 跑高并发的 ETL 任务,从 MySQL/ES 里把真实的业务日志抽出来,洗掉敏感词和废话,组装成严格的 {"instruction": "...", "input": "...", "output": "..."} 格式。没有后端的这条数据流水线,算法团队连干净的‘饲料’都拿不到。”总结:后端面 AI 岗位,最吃香的画像其实是:懂点算法底层逻辑(知道显存怎么省、遗忘率怎么控),但核心精力全扎在工程落地(清洗海量数据、保障系统并发)上的务实派。希望对大家有帮助。
查看3道真题和解析
点赞 评论 收藏
分享
评论
2
8
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务