北京六道口线下实习200-300一天(大模型数据)

#牛客AI配图神器#代码数据审核实习生 (AI Coding 方向)
【岗位职责】
1. Benchmark 数据审核: 基于自动化流水线,重点审核评测任务的解法逻辑一致性及测试用例的完整性,确保评测数据的严谨与高质量。
2. Coding Agent 数据审核: 针对用户在 AI 工具中提交的难题,复核案例的真实性,并校验 Rubric打分的准确性与客观性。
3. SOP 优化与迭代: 汇总审核过程中发现的 Bad Case 与典型问题,协助团队优化数据标注标准(SOP)及审核流程。

【任职要求】
1. 专业与经验:
  - 计算机相关专业背景。
  - 技术栈不限,但必须有较丰富的实际 Coding 经验,代码基础扎实,逻辑清晰。
2. 工具重度用户:
  - 必须是 AI Coding Agent 类产品的用户,使用过例如 Cursor / Claude Code / Trae / Qcoder 等工具,熟悉 AI 辅助编程模式。
3. 核心技能:
  - 会使用 Shell 进行基本的命令行操作(如文件管理、简单的 grep/find 等)。
  - 熟悉 GitHub 基础协作流程,熟练掌握 Fork 项目、创建 PR (Pull Request) 等操作。
4. 考勤要求(硬性指标):
  - 每周至少三天需北京线下办公。
  - 每周至少出勤5天(算上周末)。
  - 周末必须有一天在岗(周末班次支持线上/远程办公,配合项目进度)。

【加分项】
- 熟悉 Python/Shell 编程: 能熟练编写或阅读复杂的 Python 脚本及 Shell 命令者优先。
- 容器化经验: 了解 Docker 基础,能在容器环境中排查运行问题。
- 多语言能力: 除了 Python,熟悉 Java, Go, C++, Rust, JS/TS 等其他主流语言者优先。
- 竞赛与开源: 有 ACM/CTF 比赛经历,或在 GitHub 上有活跃的开源贡献记录。

【您将获得】
核心数据视野: 深入参与 AI Coding 大模型训练数据的生产与交付全流程,理解“高质量数据”是如何被制造。
技术内功提升: 通过 Review 海量代码与 AI 方案,培养敏锐的 Bug 嗅觉与代码鉴赏力。
专业化协作: 与顶尖团队共事,掌握大模型数据工程(Data Engineering)的规范化作业与协作标准。
全部评论

相关推荐

你怎么能在生产环境里直接 unwrap() 啊?!Rust 不是这样用的!你应该先认真设计一个靠谱的错误类型,用 thiserror 或 anyhow 包装好上下文信息,然后在每一层调用链里用 ? 把错误优雅地向上传递。遇到可能出现网络抖动、I/O 超时、序列化失败这种情况,你要先写好健壮的重试逻辑、退避策略和熔断机制,并且在日志里带上 trace id,这样 SRE 才能在凌晨三点定位问题。然后你要写单元测试,把所有可能失败的路径都测一遍;集成测试里还要模拟网络异常和依赖服务挂掉的情况,确保你的代码不会一言不合就 panic。接着你要跑一下 clippy,把所有 “consider handling the Result instead of unwrapping” 的警告都修干净;还要跑 rustfmt,让代码风格保持一致。之后你才可以 commit 然后 push。你 push 上去之后,CI 会跑 cargo test、cargo check、cargo clippy、cargo fmt -check,还有压力测试确保你的服务在压力下不会因为一个 unwrap() 就直接把整个服务集群带走。等 PR 至少经过两位 reviewer、三个 LGTM,并且 SRE 点头同意这个改动不会再次导致全球范围的 5xx 风暴之后,我才会考虑把你的分支 merge 进去。你怎么上来就直接在关键路径 unwrap()?!Rust 根本不是这样写的!我拒绝合并!
从夯到拉,评价编程语言
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务