满帮集团 大模型应用开发 一面

1. xgboost 为什么叫梯度提升树

因为它本质上就是:

  • :基学习器是 CART 回归树
  • 提升:一棵一棵往上加
  • 梯度:每一轮拟合的是损失函数对当前预测的负梯度

普通提升树可以理解成拟合残差,XGBoost 是把“残差”推广成了更一般的梯度下降框架,而且用了二阶导信息,所以比传统 GBDT 更强。

2. 知道什么概率模型?朴素贝叶斯,说一下贝叶斯的思想

概率模型就是用概率分布描述数据和变量关系的模型,比如:

  • 朴素贝叶斯
  • HMM
  • CRF
  • GMM
  • 贝叶斯网络

贝叶斯思想就一句话:先验 + 数据 = 后验

公式:

[P(A|B)=\frac{P(B|A)P(A)}{P(B)}]

朴素贝叶斯做分类时,假设特征在给定类别下条件独立,所以:

[P(y|x_1,...,x_n)\propto P(y)\prod_i P(x_i|y)]

最后选后验概率最大的类别。

它在文本分类里很常见,因为简单、快、对稀疏特征友好。

from sklearn.feature_extraction.text import CountVectorizer
from sklearn.naive_bayes import MultinomialNB

texts = ["物流很快 服务很好", "配送太慢了", "客服不错", "延误严重"]
labels = [1, 0, 1, 0]

X = CountVectorizer().fit_transform(texts)
model = MultinomialNB().fit(X, labels)

3. Qwen2 跟 Qwen3 模型架构有什么区别

别硬背参数表,直接说结论:

Qwen2 和 Qwen3 都还是 decoder-only Transformer 主线。区别更多不在“底层换架构”,而在整体能力升级:

  • Qwen3 更强调推理能力
  • 后训练和对齐更强
  • 长上下文、工具调用、Agent 支持更好
  • 训练数据和 recipe 更成熟
  • 整体效果更像面向复杂任务的升级版

稳一点的答法就是:Qwen3 不是推翻 Qwen2,而是在同一主干上把推理、对齐、上下文和工具使用能力继续往上拉。

4. deepseek 有什么创新点?MLA、GRPO、MOE 架构改进

DeepSeek 常被提的就是这三个。

MLA:核心是压 KV Cache,减少长上下文推理时的显存和带宽压力。不是简单共享 K/V,而是把 K/V 做成更紧凑的 latent 表示。

GRPO:是更轻量的偏好优化路线。不用单独训一个奖励模型,而是对同一个 prompt 的一组回答做相对比较,直接产生优化信号。

MoE 改进:重点不只是“专家更多”,而是把路由、负载均衡、训练稳定性和推理效率做得更能落地。MoE 难点一直不是结构图好看,而是别让少数专家过热、别训练崩。

一句话概括:DeepSeek 一边降推理成本,一边简化对齐链路,再把 MoE 真正做成可训练、可部署。

5. 模型对齐技术:PPO、DPO,DPO 没有奖励模型,他是怎么进行奖励的

PPO 这条线是:

  • SFT
  • 奖励模型 RM
  • PPO 更新策略模型

DPO 没有单独的奖励模型,但不是没有奖励信号。它直接用偏好数据训练,也就是:

  • 同一个 prompt
  • 一个 chosen
  • 一个 rejected

目标就是让模型对 chosen 的概率更高,对 rejected 的概率更低。所以 DPO 的“奖励”来自 偏好对的相对约束,不是来自一个单独打分网络。

可以直接理解成:

  • PPO:先训练裁判,再按裁判打分训练选手
  • DPO:不单独训练裁判,直接拿胜负关系训练选手

6. RAG,你们的二级缓存怎么实现的?过期策略是什么?Redis 数据结构介绍一下

二级缓存一般就是:

  • 一级:本地内存缓存,挡热点请求
  • 二级:Redis,挡重复检索和重复生成

缓存内容一般会放:

  • query 改写结果
  • embedding
  • 检索 topk
  • rerank 结果
  • 最终答案

过期策略别只会说 TTL。更实用的是:

  • 稳定数据长 TTL,比如 embedding、文档解析结果
  • 检索和答案短 TTL
  • 最好加 知识库版本号
  • 实际上常用的是 TTL + version 双保险

Redis 常见结构:

  • String:最常用,存 JSON、文本
  • Hash:存对象字段
  • List:队列
  • Set:去重
  • ZSet:带分值排序

RAG 里最常用的是 String、Hash、ZSet。

import json, redis
r = redis.Redis(host="localhost", port=6379, decode_responses=True)

key = "rag:answer:v3:满帮集团是做什么的"
value = {"answer": "满帮集团主要提供数字货运相关服务。"}
r.setex(key, 1800, json.dumps(value, ensure_ascii=False))

7. Agent:多 Agent 调用逻辑怎么实现的

核心不是“调几个模型”,核心是 路由 + 状态 + 汇总

常见做法是主控 Agent 先拆任务,再分发给不同角色:

  • Planner 负责拆解
  • Retriever 负责查资料
  • Tool Agent 负责调工具
  • Writer 或主控负责汇总

关键点有两个:

  • 所有 Agent 共享状态,不能各说各话
  • 要有终止条件、失败重试和最大步数控制

本质上就是一个 orchestrator 驱动多个角色跑 workflow。

class State:
    de

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

AI-Agent面试实战专栏 文章被收录于专栏

本专栏聚焦 AI-Agent 面试高频考点,内容来自真实面试与项目实践。系统覆盖大模型基础、Prompt工程、RAG、Agent架构、工具调用、多Agent协作、记忆机制、评测、安全与部署优化等核心模块。以“原理+场景+实战”为主线,提供高频题解析、标准答题思路与工程落地方法,帮助你高效查漏补缺.

全部评论

相关推荐

03-11 20:19
已编辑
门头沟学院 Java
太压力了,面了2个多小时,本菜比已经被拷打的瑟瑟发抖面完两个小时后通知过了1.算法题三道(1)leetcode124 二叉树中最大路径和hard题 因为不久前才刷过撕出来了,又来了一道(2)leetcode 300 最长递增子序列变种除了递增之外还加了一个权重因素,但是思路没变,dp就行(3)寻找词汇库里符合固定长度前缀的匹配单词应该是他们自己题库的题。给了一串单词列表,然后又给了一个单词,一个下标,根据这个下标的前缀去单词列表里面找到所有匹配的单词再返回思路是创建一个单词前缀树,然后根据树找,但是可能是构件树数有问题没撕出来2.全方位项目拷打基本没有问八股,全部都是项目企业场景题,哎哟我操,完全不会。我就纯八股战士,结果没想到一道八股都没问反正尽可能把企业场景往八股上引吧。。1. 微服务多点部署其中一个宕机了怎么办2. 要是mq占据大量CPU该怎么排查?MySQL占据大量CPU该怎么排查?3. 假如说让你实现视频点赞功能,你打算怎么设计?讲讲思路(我知道多级缓存,但是碰巧没背……寄)4. Redis延迟双删是什么,分布式锁,哨兵模式5. MySQL到es同步的延迟该怎么优化6. Rabbit mq的队列是怎么实现的?(这个完全没整明白,可能是队列的底层结构? 反正我硬扯的讲了一下rabbit mq的架构)还扯了很多,但是往后完全就慌了),记住的是这些
查看9道真题和解析
点赞 评论 收藏
分享
从传统后端开发一路走来,到专注AI应用开发这4年,见证了行业要求的快速变化。我必须告诉准备跳槽或转型的同行——现在的AI应用开发社招,早已不是会调个API、写个Demo就能轻松应对的时代了。这三类人建议慎碰AI应用开发社招认为“会用LangChain = 懂AI开发”的 (现在面试常问:如何设计一套高可用、低延迟的RAG服务架构?)项目经历只会说“我接入了大模型API”的 (团队需要的是:如何通过监控、反馈闭环与A/B测试,持续优化模型效果与用户体验?)觉得“知道几个框架 = 准备好了”的 (见过经验丰富的开发者,被问到多智能体协作时的状态管理与冲突解决策略时,仍然语焉不详。)🔥 2025年AI应用开发社招真实现状能力要求复合化:仅会后端开发或仅了解模型调用,发展空间严重受限。工程深度成为分水岭:不会设计容错、可观测、成本可控的AI服务架构,很难通过高阶技术面试。业务理解至关重要:脱离具体场景(如智能客服、知识管理、内容生成)的架构设计,缺乏竞争力。🛠 我靠这些实践4年保持竞争力核心开发与实验:Jupyter + FastAPI(快速原型与服务化)、LangSmith + MLflow(链路追踪与实验管理)。问题排查与部署:应用日志与性能监控联动分析、Docker + Kubernetes(构建可复现、可伸缩的服务环境)。知识体系构建:用笔记工具系统化沉淀AI工程经验,梳理的“大模型应用架构 Checklist”已在团队内推广。📈 一位转型者的社招备战建议深入原理,超越调用:定期研究LangChain、LlamaIndex等框架的源码与设计模式,尝试为开源项目贡献代码或解决方案。重构你的项目经验(面试关键):问题:线上AI服务响应慢且不稳定。分析:通过链路追踪与监控,定位到检索模块延迟高、模型调用超时两大瓶颈。解决方案:引入向量索引优化、实现请求队列与降级策略、优化Prompt以减少模型处理时间。量化影响:将P99延迟降低60%,服务可用性提升至99.9%,月度推理成本下降15%。💣 我亲身踩过的坑曾面试时被问:“如何为一个具备自我学习能力的AI Agent系统设计版本管理与回滚机制?”当时对智能体系统的工程化理解尚浅。简历写了“负责智能问答系统全链路开发”,却被追问:“如何量化评估并持续提升回答的准确性与用户体验?”因缺乏系统化评估思路而失利学AI大模型的正确顺序,千万不要搞错了🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋📝给大家整理了超全最新的AI大模型应用开发学习清单和zi料,手把手帮你快速入门!👇👇学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~
点赞 评论 收藏
分享
刚刷到字节跳动官方发的消息,确实被这波阵仗吓了一跳。在大家还在纠结今年行情是不是又“寒冬”的时候,字节直接甩出了史上规模最大的转正实习计划——ByteIntern。咱们直接看几个最硬的数,别被花里胡哨的宣传词绕晕了。首先是“量大”。全球招7000多人是什么概念?这几乎是把很多中型互联网公司的总人数都给招进来了。最关键的是,这次的资源分配非常精准:研发岗给了4800多个Offer,占比直接超过六成。说白了,字节今年还是要死磕技术,尤其是产品和AI领域,这对于咱们写代码的同学来说,绝对是今年最厚的一块肥肉。其次是大家最关心的“转正率”。官方直接白纸黑字写了:整体转正率超过50%。这意味着只要你进去了,不划水、正常干,每两个人里就有一个能直接拿校招Offer。对于2027届(2026年9月到2027年8月毕业)的同学来说,这不仅是实习,这简直就是通往大厂的快捷通道。不过,我也得泼盆冷水。坑位多,不代表门槛低。字节的实习面试出了名的爱考算法和工程实操,尤其是今年重点倾斜AI方向,如果你简历里有和AI相关的项目,优势还是有的。而且,转正率50%也意味着剩下那50%的人是陪跑的,进去之后的考核压力肯定不小。一句话总结: 27届的兄弟们,别犹豫了。今年字节这是铁了心要抢提前批的人才,现在投递就是占坑。与其等到明年秋招去千军万马挤独木桥,不如现在进去先占个工位,把转正名额攥在手里。
喵_coding:别逗了 50%转正率 仔细想想 就是转正与不转正
哪些公司开暑期实习了?
点赞 评论 收藏
分享
评论
1
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务