算法打工人小旺 level
获赞
141
粉丝
158
关注
0
看过 TA
903
中山大学
2025
算法工程师
IP属地:山东
咨询辅导请联系。
私信
关注
在传统机器学习和深度学习时代,算法岗和开发岗确实是两种不同的"工种"。算法工程师的核心工作是优化指标。大量实验中90%是无效的,最后能交差的可能就是某次灵光一闪改了几行代码带来的收益。这工作确实是"心累"——投入和产出高度不确定。开发工程师的核心工作则是交付功能。产品经理提了需求,你把它拆成技术方案,写代码、做测试、上线。每一项工作目标明确,工作量可评估,产出可衡量。累归累,但至少是"确定性的累"。🌟这一切的前提是:AI的核心生产力瓶颈在"模型"上。✅2023年之后,这个前提被大模型彻底改写了。当GPT、Claude、Qwen这些强大的基础模型变成了可以调用的API,当大部分业务场景不再需要你从头训练一个模型的时候,"做AI"这件事的重心就不可逆转地从模型侧转向了应用侧。"AI算法岗"和"AI开发岗"的要求越来越趋同:都要会Python,都要懂LangChain或类似框架,都要理解RAG和Agent,都要能写提示词,都要能把东西部署上去。Agent不再是实验室里q的概念验证了,它正在成为企业AI落地的主流形态。企业需要的是一个能从业务需求出发,设计Agent架构、编排工作流、接入外部工具、管理上下文、监控Agent行为、持续优化效果的综合性人才。这种人才有一个越来越明确的名字:Agent Engineer。✅建议:无论你现在的title是算法工程师还是开发工程师,都建议你去了解Agent的架构设计、多Agent编排、MCP协议、可观测性这些东西。这不是在追概念,而是这确实是当下和未来一段时间AI应用的主要形态。对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
0 点赞 评论 收藏
分享
✅在传统机器学习和深度学习时代,算法岗和开发岗确实是两种不同的"工种"。算法工程师的核心工作是优化指标。大量实验中90%是无效的,最后能交差的可能就是某次灵光一闪改了几行代码带来的收益。这工作确实是"心累"——投入和产出高度不确定。开发工程师的核心工作则是交付功能。产品经理提了需求,你把它拆成技术方案,写代码、做测试、上线。每一项工作目标明确,工作量可评估,产出可衡量。累归累,但至少是"确定性的累"。🌟这一切的前提是:AI的核心生产力瓶颈在"模型"上。✅2023年之后,这个前提被大模型彻底改写了。当GPT、Claude、Qwen这些强大的基础模型变成了可以调用的API,当大部分业务场景不再需要你从头训练一个模型的时候,"做AI"这件事的重心就不可逆转地从模型侧转向了应用侧。"AI算法岗"和"AI开发岗"的要求越来越趋同:都要会Python,都要懂LangChain或类似框架,都要理解RAG和Agent,都要能写提示词,都要能把东西部署上去。Agent不再是实验室里q的概念验证了,它正在成为企业AI落地的主流形态。企业需要的是一个能从业务需求出发,设计Agent架构、编排工作流、接入外部工具、管理上下文、监控Agent行为、持续优化效果的综合性人才。这种人才有一个越来越明确的名字:Agent Engineer。✅建议:无论你现在的title是算法工程师还是开发工程师,都建议你去了解Agent的架构设计、多Agent编排、MCP协议、可观测性这些东西。这不是在追概念,而是这确实是当下和未来一段时间AI应用的主要形态。对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
0 点赞 评论 收藏
分享
🌟首先提升Agent 质量:1️⃣Prompt Engineering 是被低估的核心技能。 Agent 的 system prompt 和 tool description 的写法直接决定了 LLM 的决策质量。一个精心设计的 tool description,可以让 LLM 在 90% 的情况下正确选择工具;一个随手写的,可能只有 60%。这个差距不是换框架能弥补的。2️⃣Evaluation 是最容易被忽视的环节。 Agent 的行为具有不确定性,同样的输入可能产生不同的执行路径和结果。你需要一套 evaluation 体系来衡量 Agent 在什么条件下表现好、什么条件下会翻车。没有 eval 的 Agent 开发就是在盲人摸象。3️⃣上下文工程(Context Engineering)正在取代 Prompt Engineering 成为新的关键词。 它关注的是一个更大的问题:在 Agent 的每一步决策中,如何精准地组装出最有利于 LLM 做出正确判断的上下文?哪些信息该放进去,哪些该丢掉,以什么格式组织,这些决策比你选哪个框架重要一百倍。4️⃣用户体验设计不可忽略。 Agent 不是对每个任务都能完美完成的。如何让用户理解 Agent 在做什么、如何设置合理的预期、如何在 Agent 失败时优雅地降级——这些产品层面的思考往往比技术实现更难。🌟分阶段的选型策略1️⃣入门期:拿框架快速上手。选最流行的框架,跑通第一个 demo。目标不是做出好产品,而是理解 Agent 的基本工作原理。用框架的好处是屏蔽底层细节,专注于理解"ReAct 循环"这个核心概念。2️⃣进阶期:脱离框架理解本质。自己用纯 API 调用手写一个最小的 Agent。用 openai 或 anthropic 的官方 SDK,50 行代码写一个能调工具的 ReAct 循环。这个练习会让你彻底明白框架帮你做了什么、没做什么。3️⃣生产期:用框架的方式要利于拆除。如果你继续用框架,把它当作一个 LLM 调用的便利层来用,不要在它的 Agent 抽象上构建核心逻辑。如果你选择不用框架,直接用官方 SDK + 自己封装的薄层,也完全可行。代码量不会比用框架多太多,但可控性高出几个量级。⭕最后框架选型是一个"入口问题"——刚入门时你会觉得它很重要,深入之后你会意识到它只是一个起点。Agent 开发的真正挑战在于:理解 LLM 的能力边界,设计合理的任务分解策略,构建鲁棒的执行和容错机制,以及在不确定性中找到产品价值。这些事情,没有任何框架能替你想清楚。Agent 的灵魂不在框架里,在你对问题的理解里。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
0 点赞 评论 收藏
分享
一、OpenClaw 是什么?OpenClaw(前身 Clawdbot / Moltbot)是由 PSPDFKit 创始人 Peter Steinberger 于 2025 年 11 月创建的开源本地 AI Agent 项目,截至 2026 年初 GitHub 星标超 22 万。它运行在用户本地设备上,支持 Claude、GPT-4o、Ollama 等多种 LLM,可通过 WhatsApp、Telegram、Slack 等平台交互。Skills 就是 OpenClaw 的能力扩展系统。二、Skills 的核心概念Skills 是Markdown格式的操作手册,教 Agent 如何组合工具完成特定任务。三、Skill 的文件结构最小只需一个文件,完整结构如下:my-skill/├── SKILL.md           # 核心文件(必需):YAML 元数据 + Markdown 指令├── scripts/           # 可选:辅助脚本(Python、Bash 等)├── references/        # 可选:补充文档└── install.sh         # 可选:安装脚本四、加载与触发机制✅触发流程Agent 启动时将精简的 Skill 清单(name + description + path)注入 System Prompt。用户发消息后,LLM 根据 description 判断相关性,匹配则按需读取完整 SKILL.md 执行。这是纯文本驱动的架构——Skills 不是编译代码,而是 Markdown 指令。✅Gating(准入过滤)加载时检查:环境变量是否存在、CLI 工具是否在 PATH 中、平台是否匹配、配置中是否禁用、Tool Policy 是否放行。不满足条件的 Skill 不会加载。✅Token 开销每个 Skill 在 System Prompt 中约占 97 字符 + 字段长度(约 24+ tokens)。Skill 太多会增加响应延迟,建议合并同领域的小 Skill。五、ClawHub:Skill 注册中心ClawHub(clawhub.ai)是官方 Skill 注册中心,定位类似 npm 之于 Node.js。截至 2026 年 2 月底托管超 13,700 个社区 Skills,支持向量语义搜索、版本管理、星标评论和安全审核。六、创建自定义 Skill编写 SKILL.md 的核心原则:description 是触发短语,不是广告文案。 要包含用户实际会说的词,如 "log summary"、"deploy checklist"正文要像凌晨 3 点交给值班工程师的操作清单。 确定性步骤、停止条件、明确的输出格式不要写长篇介绍。 Agent 不需要"了解背景",它需要知道"现在做什么"在 openclaw.json 中配置启用和环境变量后,OpenClaw 自动识别新 Skill(支持文件监听热更新)。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
0 点赞 评论 收藏
分享
目前主流的 Embedding 模型都是 Bi-Encoder 架构(双塔模型):query 和文档各自独立编码成向量,再算余弦相似度。这种架构的优势是速度快——文档向量可以离线算好存起来,查询时只需要算一次 query 的向量就能跟整个库比对。代价是精度不如 Cross-Encoder,所以才需要两阶段检索。✴️下面是目前开源社区里最常用的几个 Embedding 模型的核心对比:✅BGE-M3(BAAI 智源):目前中文场景的首选。支持中英多语言,最大 8192 token 的上下文窗口,同时支持稠密向量、稀疏向量和 ColBERT 式多向量检索三种模式。在 MTEB 中文榜单上长期稳居前列。如果你不知道选什么,无脑选 BGE-M3 不会错。✅BGE-large-zh(BAAI 智源):专注中文的大尺寸版本,在纯中文场景下精度略高于 M3,但不支持多语言,上下文窗口也只有 512 token。适合纯中文且文档较短的场景。✅GTE-multilingual-base(阿里达摩院):阿里出品的多语言 Embedding 模型,在 MTEB 多语言榜单上表现很强。跟 BGE-M3 是直接竞品关系,两者在多语言场景下各有胜负。如果你面的是阿里,了解 GTE 是基本功。✅E5-small/base/large(微软):微软出品,特点是有从 small 到 large 的完整尺寸梯度,small 版本只有 33M 参数,特别适合资源紧张或需要部署到边缘设备的场景。精度比 BGE 略低,但推理速度快很多。✅Jina Embeddings v2(Jina AI):最大亮点是支持 8K token 的超长上下文。如果你的文档 chunk 特别长(比如整段法律条文或完整的技术文档章节),其他模型可能截断,Jina v2 能全部吃进去。✅MiniLM(微软):极致轻量级,速度最快,适合对延迟要求极高或大批量处理的场景。精度是这几个里最低的,但胜在快。🌟四种经典搭配方案1️⃣经典流水线:BGE-base2️⃣检索 Top 100 → BGE-Reranker-base3️⃣精排多语言场景:GTE-multilingual-base + GTE-multilingual-rerankerGPU4️⃣紧张:E5-small + MiniLM-L6-cross-encoder(batch 推理)5️⃣长文档 / 8K:Jina-embeddings-v2 + Jina-ColBERT-v2,段内匹配更稳📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看8道真题和解析
0 点赞 评论 收藏
分享
1.核心定义:它是一套可复用的 AI 能力集合,允许开发者将特定项目或工作流所需的功能封装起来,实现“一次构建,多处部署”。2.渐进式披露:这是 Skill 的核心机制,通过分层加载来优化上下文窗口的使用,降低 Token 成本并防止“上下文腐烂”:✅第一层(元数据):启动时仅加载 SKILL.md 的前置信息(Frontmatter),约 100 Tokens。✅第二层(详细指令):当智能体认为该技能相关时,加载 SKILL.md 的正文,建议在 5000 Tokens 以内。✅第三层(外部资源):仅在需要时加载子目录中的脚本或参考文档。3.与 MCP 的区别:MCP(模型上下文协议)主要关注工具连接(如连接 Notion 或 Gmail),而 Skills 更关注任务指令和工作流(如如何利用这些工具进行具体的业务分析)。此外,Skills 支持运行本地代码脚本,且可以使用纯英语编写,门槛更低。二、 如何创建自己的 Skill1. 手动创建步骤一个 Skill 至少需要包含一个 SKILL.md 文件,其目录结构如下:SKILL.md(必需):定义技能的行为和元数据。scripts/(可选):存放 Python、JavaScript 或 Bash 等可执行脚本。references/(可选):存放详细的参考文档。assets/(可选):存放模板、图像或静态数据。✴️编写 SKILL.md 的要求:前置信息(Frontmatter):必须包含 name(唯一标识符,仅限小写字母、数字和连字符)和 description(描述技能的作用及触发场景)。正文内容:使用 Markdown 编写详细的操作步骤、示例输入输出以及常见边界情况。2. 利用 AI 辅助创建(适合非技术人员)在 Claude.ai 等界面中,你可以使用内置的“技能创建器”:在设置(Settings)> 能力(Capabilities)> 技能(Skills)中确保已开启功能。启用名为 "skill-creator" 的元技能。3. 存储位置项目级技能:存储在项目的 .claude/skills/ 或 .github/skills/ 目录下。个人全局技能:存储在用户根目录下的 ~/.claude/skills/ 或 ~/.copilot/skills/ 中。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
0 点赞 评论 收藏
分享
【一面】 1)介绍一个最能代表自己的项目2)项目里负责的边界是什么?哪些内容是亲手实现/验证的?3)电商领域预训练数据:低质过滤与去重会怎么做?用哪些简单指标快速判断数据质量?4) Pretrain 和 SFT 分别解决什么问题?5) Transformer 的基本结构怎么理解?6)多模态模型的大致结构是什么(图像编码器+连接层+ LLM )?最容易踩坑的点通常在哪里?7) SFT 数据如何更贴近业务:如何避免过度模板化?如何做基础的 train / test 去重来避免评测失真?8)对齐( RLHF / DPO 等)整体思路是什么:为什么需要偏好对/奖励信号?【二面】1)做过的最有影响力的一件事是什么?具体推动了什么变化?2)训练不稳定怎么排查( loss NaN 、 OOM 、吞吐下降)3) Long Context 常见思路有哪些?在业务里如何做"能看长文本但不太贵"的折中(摘要/分段/滑窗等)?4)如何做一套简单可执行的离线评测集?如何覆盖不同语言与类目?5)多模态场景怎么评估:如何检查"图文一致性/不编造信息"?优先加哪些自动化检查?6) Prompt /模板如何管理:如何版本化、如何回滚、如何避免一次改动导致整体波动?7) 手撕:实现一个最简单的 top - k 采样(给定 logits /概率,取 top - k 后重新归一化采样),并说明边界情况怎么处理。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务