孔女士
智域基石(上海)科技有限公司·招聘负责人
16分钟前
上次在线
---
反馈率
---
处理时长
在招职位 (10)
机器人算法工程师工程师(实习)
200-400元/天
上海
本科
岗位职责
1. 具身智能数据处理流程建设与优化
- 数据理解与拆解:理解算法训练与评测目标,参与具身智能数据的结构设计与字段规范梳理,包括轨迹、动作、观测、多模态传感器信息等
- 数据处理流程开发:参与原始数据到训练数据的处理流程建设,包括清洗、切片、对齐、格式转换、质量过滤、统计分析等关键环节
- 规范适配:支持内部数据与主流开源数据格式/数据集规范的映射与适配,提升数据可复用性与实验效率
- 流程优化:持续优化数据处理链路的稳定性、可追踪性与执行效率,降低数据问题对训练结果的干扰
2. 开源模型复现、验证与效果分析
- 模型复现:复现具身智能/机器人学习相关开源模型与训练流程,包括 imitation learning、behavior cloning、policy learning、VLA/具身基础模型等方向的代表性工作
- 实验搭建:完成训练环境搭建、依赖管理、配置整理、实验复跑与结果记录,确保复现过程可追踪、可比对、可复用
- 基线验证:基于内部数据或指定任务构建 baseline,验证模型在不同数据条件、任务场景和训练配置下的表现
- 结果分析:对实验结果进行系统分析,定位模型表现波动的可能原因,包括数据质量、分布偏差、标签问题、预处理策略、训练参数等因素
3. 协助数据管线进行数据验证与质量闭环
- 数据验收支持:与数据管线、数采、标注、QA 团队协作,制定并落地面向算法可用性的基础数据验证规则与验收标准
- 问题识别:通过统计分析、抽样检查、可视化分析、训练反馈等方式识别数据中的异常问题,如时间戳错位、轨迹异常、多模态不同步、标注缺失、分布失衡等
- 质量闭环:推动数据问题从“发现”走向“修复”,协助建立问题分类、溯源、反馈、复检的闭环机制
- 效果回流:将模型训练与验证中暴露出的数据问题沉淀为规则与经验,反向支持数据生产标准优化
岗位要求
基本要求
- 学历背景:本科及以上,计算机、机器人、自动化、人工智能、电子信息、数学等相关专业优先
- 工作经验:具备算法研发、机器学习、机器人学习或相关方向项目经验;有具身智能、机器人、自动驾驶、多模态数据处理经验者优先
- 编程能力:熟练使用 Python,具备良好的工程实现能力,熟悉常用机器学习/深度学习开发工具链
- 深度学习基础:熟悉 PyTorch 等主流框架,理解模型训练、调参、评测、误差分析的基本方法
- 数据能力:具备较强的数据分析与问题定位能力,能够独立完成数据检查、统计分析与基础验证脚本开发
- 综合素质:逻辑清晰,执行力强,能够在不确定性较高的环境中快速学习、主动推进并解决问题
核心能力
- 数据理解力:能从算法目标出发理解具身智能数据结构、分布与质量问题,识别影响训练效果的关键因素
- 复现能力:能够高质量复现开源模型与论文方案,不止“跑通”,更能定位差异、解释结果
- 验证意识:重视实验与数据的可验证性,习惯建立标准、记录过程、沉淀方法
- 工程化思维:能将一次性实验转化为可复用流程、可维护工具和可协作机制
- 问题解决能力:面对复杂链路中的模型或数据问题,能够进行系统性拆解并推动闭环
- 协作沟通能力:能够高效连接算法、数据、工程等不同角色,把技术问题转化为可执行方案
加分项:
- 有具身智能 / 人形机器人 / 操作策略学习 / 模仿学习 / 强化学习 相关经验
- 熟悉 LeRobot、Open-X Embodiment 等开源具身数据或模型生态
- 有 开源论文复现、benchmark 搭建、baseline 建设 的实战经验
- 了解具身智能中常见的数据问题,如多模态同步、动作轨迹清洗、观测对齐、数据分布偏差等
- 具备 Linux、Docker、训练集群、实验管理工具 的使用经验
- 有数据管线、数据平台、数据质量体系建设相关经历
申请
机器人算法工程师工程师
20-35K * 15薪
上海
本科
岗位职责
1. 具身智能数据处理流程建设与优化
- 数据理解与拆解:理解算法训练与评测目标,参与具身智能数据的结构设计与字段规范梳理,包括轨迹、动作、观测、多模态传感器信息等
- 数据处理流程开发:参与原始数据到训练数据的处理流程建设,包括清洗、切片、对齐、格式转换、质量过滤、统计分析等关键环节
- 规范适配:支持内部数据与主流开源数据格式/数据集规范的映射与适配,提升数据可复用性与实验效率
- 流程优化:持续优化数据处理链路的稳定性、可追踪性与执行效率,降低数据问题对训练结果的干扰
2. 开源模型复现、验证与效果分析
- 模型复现:复现具身智能/机器人学习相关开源模型与训练流程,包括 imitation learning、behavior cloning、policy learning、VLA/具身基础模型等方向的代表性工作
- 实验搭建:完成训练环境搭建、依赖管理、配置整理、实验复跑与结果记录,确保复现过程可追踪、可比对、可复用
- 基线验证:基于内部数据或指定任务构建 baseline,验证模型在不同数据条件、任务场景和训练配置下的表现
- 结果分析:对实验结果进行系统分析,定位模型表现波动的可能原因,包括数据质量、分布偏差、标签问题、预处理策略、训练参数等因素
3. 协助数据管线进行数据验证与质量闭环
- 数据验收支持:与数据管线、数采、标注、QA 团队协作,制定并落地面向算法可用性的基础数据验证规则与验收标准
- 问题识别:通过统计分析、抽样检查、可视化分析、训练反馈等方式识别数据中的异常问题,如时间戳错位、轨迹异常、多模态不同步、标注缺失、分布失衡等
- 质量闭环:推动数据问题从“发现”走向“修复”,协助建立问题分类、溯源、反馈、复检的闭环机制
- 效果回流:将模型训练与验证中暴露出的数据问题沉淀为规则与经验,反向支持数据生产标准优化
岗位要求
基本要求
- 学历背景:本科及以上,计算机、机器人、自动化、人工智能、电子信息、数学等相关专业优先
- 工作经验:具备算法研发、机器学习、机器人学习或相关方向项目经验;有具身智能、机器人、自动驾驶、多模态数据处理经验者优先
- 编程能力:熟练使用 Python,具备良好的工程实现能力,熟悉常用机器学习/深度学习开发工具链
- 深度学习基础:熟悉 PyTorch 等主流框架,理解模型训练、调参、评测、误差分析的基本方法
- 数据能力:具备较强的数据分析与问题定位能力,能够独立完成数据检查、统计分析与基础验证脚本开发
- 综合素质:逻辑清晰,执行力强,能够在不确定性较高的环境中快速学习、主动推进并解决问题
核心能力
- 数据理解力:能从算法目标出发理解具身智能数据结构、分布与质量问题,识别影响训练效果的关键因素
- 复现能力:能够高质量复现开源模型与论文方案,不止“跑通”,更能定位差异、解释结果
- 验证意识:重视实验与数据的可验证性,习惯建立标准、记录过程、沉淀方法
- 工程化思维:能将一次性实验转化为可复用流程、可维护工具和可协作机制
- 问题解决能力:面对复杂链路中的模型或数据问题,能够进行系统性拆解并推动闭环
- 协作沟通能力:能够高效连接算法、数据、工程等不同角色,把技术问题转化为可执行方案
加分项:
- 有具身智能 / 人形机器人 / 操作策略学习 / 模仿学习 / 强化学习 相关经验
- 熟悉 LeRobot、Open-X Embodiment 等开源具身数据或模型生态
- 有 开源论文复现、benchmark 搭建、baseline 建设 的实战经验
- 了解具身智能中常见的数据问题,如多模态同步、动作轨迹清洗、观测对齐、数据分布偏差等
- 具备 Linux、Docker、训练集群、实验管理工具 的使用经验
- 有数据管线、数据平台、数据质量体系建设相关经历
申请
机器人软件工程师 - 端侧系统
15-30K * 15薪
上海
本科
岗位职责
1. 高性能端侧采集引擎开发
- 采集业务逻辑实现: 设计并开发端侧采集软件的核心状态机,精准控制采集任务的生命周期;开发灵活的端侧配置管理模块,提供便捷的端侧管理工具。
- 端侧性能优化: 在 Jetson/工控机等端侧设备上,基于 C++ 开发低延迟、高并发的数据采集服务。通过零拷贝 、多线程并行、内存池管理等技术,最小化 CPU 和内存占用,避免影响机器人主控流程。
- 边缘计算与数据预处理:在端侧实现数据流的监控、实时清洗与轻量化处理(如点云采样、图像去模糊检测、ROI 提取等),充分利用端侧GPU/DSP/FPGA 加速数据处理,减轻存储与传输压力。
2. 长期运行稳定性保障
- 系统高可用性保障: 设计守护进程和看门狗机制,确保采集程序在网络抖动、硬件热插拔、磁盘满载等极端工况下能正常运行,确保采集系统具备 7x24 小时无人值守的鲁棒性。
- 资源管控与 IO 优化: 精细化管理端侧磁盘 I/O 和网络带宽,设计智能的缓冲区策略,在弱网环境下保障数据写入的连续性与完整性。
- 基础设施与可观测性:构建基于容器的端侧部署体系,适配 x86/ARM 等不同架构的机器人硬件平台;开发端侧的“黑匣子”功能,对系统负载、丢包率、I/O 吞吐进行全链路监控与诊断。
岗位要求
1. 熟悉 C++ 与系统编程: 拥有扎实的 C/C++ 功底,熟悉 Linux 系统编程(多线程、IPC、Socket、Shared Memory),深入理解操作系统原理(调度、内存管理、I/O 模型)。
2. ROS/ROS2 应用: 深入理解 ROS 通信架构底层,有自定义 Message、优化 Bag 录制性能、处理高带宽数据流的实战经验。
3. 软硬结合能力: 熟悉 ARM/Jetson 平台开发,了解各类硬件接口协议(GMSL, USB3.0, GigE, CAN/CAN-FD, UART)。
4. 性能分析能力: 熟练使用 Perf, Valgrind, GDB 等工具进行性能热点分析与内存泄漏排查。
加分项:
1. Rust 语言经验: 熟悉或有兴趣使用 Rust 进行系统级开发,以提升采集程序的内存安全性和并发性能。
2. 机器人系统开发:有自动驾驶数据采集车或工业机器人相关项目的底层系统开发经验。
3. 实时操作系统 : 熟悉实时补丁(Preempt-RT)或 Xenomai,有硬实时系统设计经验,能处理微秒级抖动。
4. 音视频编解码:熟悉视频编解码标准(H.264/H.265)及硬解码加速(NVDEC/NVENC等)。
5. 高性能中间件: 熟悉除 ROS 之外的高性能通信中间件,如 Zenoh,ZeroMQ, DDS (FastDDS, CycloneDDS) 的调优与定制。
6. 大规模集群管理: 有过管理数十台甚至上百台机器人/无人车队软件版本与配置的经验
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请
机器人现场应用工程师(FAE)
15-25K * 15薪
上海
本科
岗位职责
1. 客户现场数据采集软件部署与调试
- 负责公司机器人数据采集软件在客户现场的安装、部署、配置与版本管理
- 根据项目要求完成运行环境搭建、参数配置、权限设置、网络联通与基础功能验证
- 配合客户现场已有机器人系统及相关设备,完成数据采集软件的接入、联调与调试
- 对部署过程中的常见问题进行排查,包括环境依赖、服务异常、网络连接、接口调用、日志报错等
- 输出部署记录、调试文档与问题清单,确保实施过程清晰、可复盘、可交接
2. 现场软硬件联调与运行保障
- 围绕公司软件产品,协助完成与客户现场机器人、传感器、工控机、边缘计算设备及网络环境的联调工作
- 结合现场工况,对软件运行状态、数据链路、接口调用与设备通信进行排查和验证
- 支持现场试运行、问题回归测试和版本验证,保障软件系统稳定上线与持续运行
- 对典型现场问题进行归类分析,协助研发团队完成问题定位与优化闭环
- 在项目实施过程中,为客户及合作伙伴提供必要的技术支持与使用指导
3. 协助合作伙伴完成甲方侧的软件检修与维护支持
- 协助合作伙伴面向甲方客户完成公司软件系统的日常巡检、故障排查、配置检查和版本核验
- 配合完成软件相关问题的检查、日志导出、异常记录、参数恢复和基础维护操作
- 对影响数据采集任务的软件故障、接口异常、通信问题等进行初步分析和反馈
- 支持合作伙伴按照标准流程完成问题处理与结果确认,提升一线维护效率
- 必要时参与现场应急支持,推动软件系统尽快恢复运行,减少对客户业务的影响
4. 参与产品开发支持与工具化建设
- 结合客户现场实际需求和问题反馈,协助研发团队梳理产品改进项、优化建议和功能需求
- 参与部分面向实施交付的辅助功能开发与调试工作,如部署脚本、诊断工具、日志采集工具、配置工具等
- 协助完成软件新版本的现场验证、功能回归测试和兼容性测试,推动版本稳定发布
- 支持研发团队进行问题复现、现场数据回收、日志分析和调试信息整理,提升开发与修复效率
- 对高频现场问题提出工程化解决方案,推动问题处理向工具化、自动化、标准化演进
5. 文档沉淀与持续优化
- 编写并维护部署手册、联调说明、问题排查 SOP、升级说明及常见问题 FAQ
- 将现场问题进行分类归档,沉淀标准案例与知识库
- 收集客户现场对软件功能、稳定性和易用性的反馈,推动产品持续优化
- 总结项目实施经验,优化部署流程、联调方法和支持机制,提高交付效率与服务质量
- 推动形成标准化的软件现场实施与技术支持体系
岗位要求
基本要求:
- 学历背景:本科及以上,机器人、自动化、计算机、电子信息、机械电子等相关专业优先
- 工作经验:有机器人、自动化设备、工业软件、智能硬件或相关行业 FAE/售后技术支持/实施交付经验者优先
- 软件部署能力:具备基础的软件安装部署、环境配置、问题排查能力,能够支持现场系统落地
- 硬件基础:具备基本硬件知识,能够理解常见传感器、控制器、工控机、网络设备等组成与连接关系
- 脚本能力:具备简单脚本编写能力,能够使用 Python/Shell/Batch 等完成基础日志处理、自动化操作或调试辅助工作
- 沟通协作:具备良好的客户沟通意识和跨团队协作能力,能够清晰传递问题与进展
- 出差适应性:能够接受一定频率的客户现场出差和驻场支持
核心能力:
现场交付能力:能够在客户现场独立完成基础部署、调试、验证与问题记录
故障排查能力:面对软件、网络、设备连接等问题时,具备清晰的定位思路和执行力
软硬件协同意识:理解机器人系统不是单一软件产品,能从整体链路判断问题
客户服务意识:理解现场节奏与客户需求,具备稳定、专业、可信赖的支持能力
文档与流程意识: 能将现场经验沉淀为标准文档、SOP 和知识库
学习能力:愿意快速学习机器人系统、数据采集流程和新设备、新工具
加分项:
如果你还具备以下经验,我们会更加欢迎:
- 有机器人数据采集、机器人运维、工业自动化实施、智能设备售后支持等相关经验
- 熟悉 Linux 常用命令、网络基础配置、日志查看与服务排查
- 了解 ROS / ROS2、机器人中间件、设备通信协议(如 TCP/IP、串口、CAN 等)
- 有传感器、相机、机械臂、移动机器人等设备联调经验
- 有客户现场问题处理、项目交付、合作伙伴支持经验
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请
分布式计算引擎架构师(SQL 优化 / 执行引擎)
30-60K * 15薪
北京
本科
岗位职责
你将负责:
作为核心架构师,你将面向具身智能数据分析与训练场景,主导新一代多模态分布式计算平台的架构设计与关键能力建设:
1. 分布式计算平台架构设计与演进:基于 Ray 及现代数据计算技术栈,负责通用多模态分布式计算平台的整体架构设计、核心模块研发与持续演进,覆盖查询分析、批处理、任务编排、资源调度等关键能力。
2. 面向具身智能场景的系统设计与性能优化:围绕视频、时序信号、传感器流、点云等多模态数据,设计适配具身智能数据分析场景的计算架构,解决大规模数据处理中的时序对齐、多模态关联、任务调度、数据倾斜、Shuffle、资源隔离与端到端性能优化问题。
3. 高性能计算与关键算子建设:负责关键数据处理链路与核心算子的设计和实现,包括但不限于数据预处理、特征提取、轨迹分析、时空对齐、融合计算等;结合 SIMD、向量化、异步并发及 GPU 加速等手段,持续提升计算吞吐与处理效率。
4. 存储引擎与数据格式优化:围绕海量训练与分析数据,设计并优化存储引擎、列式/时序数据格式及读写链路,提升扫描效率、压缩效率、索引能力、谓词下推与缓存命中率,降低大规模数据访问与训练供数成本。
5. 可靠性与工程化保障:建设平台在大规模生产环境下的稳定性与可靠性能力,包括容错恢复、任务重试、资源隔离、可观测性、性能诊断与容量规划,保障关键数据计算任务稳定运行。
6. 构建数据-算法-模型闭环:与算法、模型、数据工程团队深度协作,打通数据处理、特征生成、样本构建、训练加载与效果反馈链路,推动形成高效的数据计算闭环;在必要场景下参与算法实现与计算链路优化,消除 GPU 训练中的 I/O 与数据供给瓶颈。
岗位要求
我们希望你是一位兼具数据库/计算引擎底层能力与分布式系统架构视野的系统级工程师:
1. 扎实的系统与工程基础:计算机相关专业本科及以上学历,5 年以上数据库内核、分析型数据库、分布式计算引擎或高性能数据系统研发经验。精通 Rust、C++、Go 或 Java/Scala 中的一种或多种,对内存管理、并发编程、网络通信、存储系统及操作系统底层机制有深入理解。
2. 分析型数据库或计算引擎研发经验:具备以下一个或多个方向的深入经验:
1. 深入参与过结构化/分析型数据库、查询引擎或执行引擎的设计与开发,例如 ClickHouse、Doris/SelectDB、DuckDB、Databend、Impala、Presto/Trino 等;
2. 或具备 Spark、Flink、Ray 等分布式计算框架的核心开发、性能优化或大规模生产落地经验;
3. 对查询优化、执行引擎、向量化执行、列式存储、Shuffle、数据倾斜治理、任务调度等一个或多个核心领域有扎实理解与实战经验。
3. 分布式系统与场景化架构能力:深刻理解分布式系统理论与工程实践,熟悉 Ray、时序数据库或相关大规模数据处理系统的架构与实现;能够结合具体业务场景设计高可扩展、高吞吐、低延迟的数据处理方案,并具备解决资源调度、容错恢复、稳定性治理与性能瓶颈问题的能力。
4. 存储与数据格式理解:熟悉 Apache Arrow 生态及常见列式/时序数据格式与存储机制,如 Parquet、ORC 等;有存储引擎、数据布局、压缩编码、索引加速、读写链路优化等经验者优先。
5. 算法协作与高性能计算意识:能够与算法/模型团队高效协作,理解数据分析、训练供数与特征处理链路;有高性能 GPU 计算、异构计算加速或算法实现优化经验者优先。
6. 技术领导力:能够独立负责复杂系统的架构设计与关键问题攻坚,具备良好的抽象能力、工程判断力和跨团队协作能力;善于使用 perf、flamegraph 等工具进行性能分析与调优。
如果你还会...
- 开源与底层生态经验:参与过 Arrow、DataFusion、Ray、Velox,或其他知名数据库/计算框架的开源贡献;有 Committer / PMC 经验更佳。
- 数据库与计算引擎内核经验:在 ClickHouse、Doris/SelectDB、Presto/Trino、Impala、DuckDB、Databend、Spark、Flink 等系统中,有查询优化器、执行引擎、向量化执行、Shuffle 或存储层的深度研发经验。
- Rust / C++ 系统级开发能力:有丰富的 Rust 或 C++ 系统级项目经验,熟悉异步并发、内存管理与性能调优,能够持续推进复杂底层系统演进。
- Ray 与大规模分布式计算实践:对 Ray 或类似分布式计算框架有深度使用和调优经验,熟悉任务调度、资源管理、容错恢复、数据倾斜治理等典型问题。
- 存储引擎与数据格式优化经验:熟悉 Arrow、Parquet、ORC 等数据格式,或有存储引擎、压缩编码、索引结构、读写链路、缓存与物化策略优化经验。
- 具身智能 / 自动驾驶数据背景:了解 ROS、MCAP 等相关生态,或有大规模机器人、自动驾驶、多传感器数据处理经验,理解时序同步、传感器标定、轨迹分析等关键问题。
- 高性能计算与 GPU 优化能力:有 SIMD、向量化执行、异构计算、GPU 数据处理或训练供数链路优化 经验,能够将算法能力转化为可规模化运行的高性能数据计算系统。
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请
分布式计算引擎架构师(SQL 优化 / 执行引擎)
30-60K * 15薪
上海
本科
岗位职责
你将负责:
作为核心架构师,你将面向具身智能数据分析与训练场景,主导新一代多模态分布式计算平台的架构设计与关键能力建设:
1. 分布式计算平台架构设计与演进:基于 Ray 及现代数据计算技术栈,负责通用多模态分布式计算平台的整体架构设计、核心模块研发与持续演进,覆盖查询分析、批处理、任务编排、资源调度等关键能力。
2. 面向具身智能场景的系统设计与性能优化:围绕视频、时序信号、传感器流、点云等多模态数据,设计适配具身智能数据分析场景的计算架构,解决大规模数据处理中的时序对齐、多模态关联、任务调度、数据倾斜、Shuffle、资源隔离与端到端性能优化问题。
3. 高性能计算与关键算子建设:负责关键数据处理链路与核心算子的设计和实现,包括但不限于数据预处理、特征提取、轨迹分析、时空对齐、融合计算等;结合 SIMD、向量化、异步并发及 GPU 加速等手段,持续提升计算吞吐与处理效率。
4. 存储引擎与数据格式优化:围绕海量训练与分析数据,设计并优化存储引擎、列式/时序数据格式及读写链路,提升扫描效率、压缩效率、索引能力、谓词下推与缓存命中率,降低大规模数据访问与训练供数成本。
5. 可靠性与工程化保障:建设平台在大规模生产环境下的稳定性与可靠性能力,包括容错恢复、任务重试、资源隔离、可观测性、性能诊断与容量规划,保障关键数据计算任务稳定运行。
6. 构建数据-算法-模型闭环:与算法、模型、数据工程团队深度协作,打通数据处理、特征生成、样本构建、训练加载与效果反馈链路,推动形成高效的数据计算闭环;在必要场景下参与算法实现与计算链路优化,消除 GPU 训练中的 I/O 与数据供给瓶颈。
岗位要求
我们希望你是一位兼具数据库/计算引擎底层能力与分布式系统架构视野的系统级工程师:
1. 扎实的系统与工程基础:计算机相关专业本科及以上学历,5 年以上数据库内核、分析型数据库、分布式计算引擎或高性能数据系统研发经验。精通 Rust、C++、Go 或 Java/Scala 中的一种或多种,对内存管理、并发编程、网络通信、存储系统及操作系统底层机制有深入理解。
2. 分析型数据库或计算引擎研发经验:具备以下一个或多个方向的深入经验:
1. 深入参与过结构化/分析型数据库、查询引擎或执行引擎的设计与开发,例如 ClickHouse、Doris/SelectDB、DuckDB、Databend、Impala、Presto/Trino 等;
2. 或具备 Spark、Flink、Ray 等分布式计算框架的核心开发、性能优化或大规模生产落地经验;
3. 对查询优化、执行引擎、向量化执行、列式存储、Shuffle、数据倾斜治理、任务调度等一个或多个核心领域有扎实理解与实战经验。
3. 分布式系统与场景化架构能力:深刻理解分布式系统理论与工程实践,熟悉 Ray、时序数据库或相关大规模数据处理系统的架构与实现;能够结合具体业务场景设计高可扩展、高吞吐、低延迟的数据处理方案,并具备解决资源调度、容错恢复、稳定性治理与性能瓶颈问题的能力。
4. 存储与数据格式理解:熟悉 Apache Arrow 生态及常见列式/时序数据格式与存储机制,如 Parquet、ORC 等;有存储引擎、数据布局、压缩编码、索引加速、读写链路优化等经验者优先。
5. 算法协作与高性能计算意识:能够与算法/模型团队高效协作,理解数据分析、训练供数与特征处理链路;有高性能 GPU 计算、异构计算加速或算法实现优化经验者优先。
6. 技术领导力:能够独立负责复杂系统的架构设计与关键问题攻坚,具备良好的抽象能力、工程判断力和跨团队协作能力;善于使用 perf、flamegraph 等工具进行性能分析与调优。
如果你还会...
- 开源与底层生态经验:参与过 Arrow、DataFusion、Ray、Velox,或其他知名数据库/计算框架的开源贡献;有 Committer / PMC 经验更佳。
- 数据库与计算引擎内核经验:在 ClickHouse、Doris/SelectDB、Presto/Trino、Impala、DuckDB、Databend、Spark、Flink 等系统中,有查询优化器、执行引擎、向量化执行、Shuffle 或存储层的深度研发经验。
- Rust / C++ 系统级开发能力:有丰富的 Rust 或 C++ 系统级项目经验,熟悉异步并发、内存管理与性能调优,能够持续推进复杂底层系统演进。
- Ray 与大规模分布式计算实践:对 Ray 或类似分布式计算框架有深度使用和调优经验,熟悉任务调度、资源管理、容错恢复、数据倾斜治理等典型问题。
- 存储引擎与数据格式优化经验:熟悉 Arrow、Parquet、ORC 等数据格式,或有存储引擎、压缩编码、索引结构、读写链路、缓存与物化策略优化经验。
- 具身智能 / 自动驾驶数据背景:了解 ROS、MCAP 等相关生态,或有大规模机器人、自动驾驶、多传感器数据处理经验,理解时序同步、传感器标定、轨迹分析等关键问题。
- 高性能计算与 GPU 优化能力:有 SIMD、向量化执行、异构计算、GPU 数据处理或训练供数链路优化 经验,能够将算法能力转化为可规模化运行的高性能数据计算系统。
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请
工程师(云基础设施 / 数据平台)
20-40K * 15薪
北京
本科
岗位职责
- 生产环境部署与日常运维: 负责数据平台、Ray 集群及相关生产环境的部署、配置、升级、巡检与日常运维,保障核心服务稳定运行。
- 可观测性与告警建设: 参与监控、日志、告警等基础能力建设,完善系统运行指标、告警规则、故障排查流程与值班响应机制,提升问题发现和处理效率。
- 发布与变更执行: 参与生产发布、配置变更、灰度验证与回滚执行,协助建立规范的变更管理流程,降低生产风险。
- 云资源管理与成本优化: 负责云上计算、存储、网络等资源的日常管理与优化,关注资源利用率、容量水位与成本变化,支持业务稳定增长。
- 故障排查与稳定性改进: 参与线上故障响应、日志分析、问题定位、恢复处理与复盘改进,推动常见故障场景标准化和自动化。
- 自动化与平台工具建设: 使用脚本或工具提升运维效率,减少重复性人工操作,推动环境管理、巡检、发布、排障等流程自动化。
岗位要求
- 具备扎实的云上运维经验: 计算机相关专业本科及以上学历,3 年左右 SRE、运维开发、云平台运维、基础设施运维或生产工程经验;有较完整的生产环境值守、变更、故障处理经验。
- 熟悉公有云基础设施: 熟悉 AWS / 阿里云 / 火山引擎 等至少一种公有云,了解计算、存储、网络、权限等基础服务的使用与运维方式,如 EC2/ECS、S3/OSS、VPC、IAM 等。
- 熟悉 Linux 与基础网络: 具备良好的 Linux 运维能力,熟悉系统服务、进程、文件系统、网络排查、权限管理等常见问题处理;理解 TCP/IP、DNS、负载均衡等基础网络知识。
- 具备容器与集群运维经验: 有 Kubernetes、容器化部署、集群运维或分布式系统日常运维经验者优先;有 Ray、Spark、Flink 等相关系统接触经验更佳。
- 具备可观测性与排障能力: 熟悉监控、日志、告警等基本体系,能够通过日志、指标、trace 或系统工具辅助定位问题;具备较强的故障处理意识和稳定性意识。
- 具备基础自动化能力: 熟练使用 Shell / Python / Go 中的一种或多种进行脚本开发和自动化运维;有 IaC、CI/CD、发布工具或内部运维工具开发经验者优先。
- 责任心与协作能力强: 对生产环境有责任心,执行力强,能够与研发、算法、数据、平台团队高效协作,推动问题闭环。
加分项:
- 有 Kubernetes 集群运维、升级、扩缩容经验
- 有 Ray、Spark、Flink 等分布式系统的部署、运维或问题排查经验
- 熟悉 Prometheus、Grafana、ELK / Loki、OpenTelemetry 等可观测性工具链
- 有 Terraform / Pulumi / Ansible 等自动化或 IaC 实践经验
- 有对象存储、文件系统、消息队列、缓存等基础组件的运维经验
- 对云资源成本优化、容量规划、权限治理有实际经验
- 有自动驾驶、机器人、具身智能或 AI 基础设施相关经验
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请
工程师(云基础设施 / 数据平台)
20-40K * 15薪
上海
本科
岗位职责
- 生产环境部署与日常运维: 负责数据平台、Ray 集群及相关生产环境的部署、配置、升级、巡检与日常运维,保障核心服务稳定运行。
- 可观测性与告警建设: 参与监控、日志、告警等基础能力建设,完善系统运行指标、告警规则、故障排查流程与值班响应机制,提升问题发现和处理效率。
- 发布与变更执行: 参与生产发布、配置变更、灰度验证与回滚执行,协助建立规范的变更管理流程,降低生产风险。
- 云资源管理与成本优化: 负责云上计算、存储、网络等资源的日常管理与优化,关注资源利用率、容量水位与成本变化,支持业务稳定增长。
- 故障排查与稳定性改进: 参与线上故障响应、日志分析、问题定位、恢复处理与复盘改进,推动常见故障场景标准化和自动化。
- 自动化与平台工具建设: 使用脚本或工具提升运维效率,减少重复性人工操作,推动环境管理、巡检、发布、排障等流程自动化。
岗位要求
- 具备扎实的云上运维经验: 计算机相关专业本科及以上学历,3 年左右 SRE、运维开发、云平台运维、基础设施运维或生产工程经验;有较完整的生产环境值守、变更、故障处理经验。
- 熟悉公有云基础设施: 熟悉 AWS / 阿里云 / 火山引擎 等至少一种公有云,了解计算、存储、网络、权限等基础服务的使用与运维方式,如 EC2/ECS、S3/OSS、VPC、IAM 等。
- 熟悉 Linux 与基础网络: 具备良好的 Linux 运维能力,熟悉系统服务、进程、文件系统、网络排查、权限管理等常见问题处理;理解 TCP/IP、DNS、负载均衡等基础网络知识。
- 具备容器与集群运维经验: 有 Kubernetes、容器化部署、集群运维或分布式系统日常运维经验者优先;有 Ray、Spark、Flink 等相关系统接触经验更佳。
- 具备可观测性与排障能力: 熟悉监控、日志、告警等基本体系,能够通过日志、指标、trace 或系统工具辅助定位问题;具备较强的故障处理意识和稳定性意识。
- 具备基础自动化能力: 熟练使用 Shell / Python / Go 中的一种或多种进行脚本开发和自动化运维;有 IaC、CI/CD、发布工具或内部运维工具开发经验者优先。
- 责任心与协作能力强: 对生产环境有责任心,执行力强,能够与研发、算法、数据、平台团队高效协作,推动问题闭环。
加分项:
- 有 Kubernetes 集群运维、升级、扩缩容经验
- 有 Ray、Spark、Flink 等分布式系统的部署、运维或问题排查经验
- 熟悉 Prometheus、Grafana、ELK / Loki、OpenTelemetry 等可观测性工具链
- 有 Terraform / Pulumi / Ansible 等自动化或 IaC 实践经验
- 有对象存储、文件系统、消息队列、缓存等基础组件的运维经验
- 对云资源成本优化、容量规划、权限治理有实际经验
- 有自动驾驶、机器人、具身智能或 AI 基础设施相关经验
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请
分布式数据平台研发大数据开发工程师(Ray)
25-45K * 15薪
上海
本科
岗位职责
作为分布式数据平台研发工程师,你将围绕分布式数据管线平台的产品化、工程化与性能优化展开工作:
1. 数据管线框架研发与接口演进:参与基于 Python 和 Ray Data 的分布式 data pipeline 框架研发,持续优化 Pipeline API、DAG 定义方式、配置机制和任务提交流程,提升平台的易用性、一致性与可扩展性。
2. Pipeline 可观测性建设:建设面向数据管线任务的可观测能力,包括任务状态跟踪、执行日志、指标采集、链路追踪、错误定位、性能分析与运行诊断,帮助用户快速理解任务执行过程并高效排障。
3. 性能分析与调优:针对大规模数据处理任务中的吞吐、延迟、资源利用率、数据倾斜、失败重试、背压、对象存储访问、序列化反序列化等问题开展性能分析和专项优化,持续提升管线执行效率与稳定性。
4. Ray 深度使用与系统优化:深入使用并优化 Ray / Ray Data,结合 Actor、Task、Dataset、调度、内存与对象管理等机制,优化分布式数据处理任务在实际生产环境中的执行表现和资源效率。
5. 具身智能领域数据转换算法实现:围绕视频、传感器流、时序数据、点云等多模态数据场景,实现高性能的数据转换、清洗、切分、对齐、融合、样本生成等处理算法,并持续优化关键处理链路。
6. 工程质量与交付保障:编写高质量、可维护代码,完善测试、文档、CI/CD、异常处理与问题闭环机制,保障平台持续迭代与稳定交付。
岗位要求
我们希望你是一位工程基础扎实、执行力强,同时愿意深入理解数据处理场景与分布式系统细节的工程师:
1. 扎实的工程基础:计算机相关专业本科及以上学历,3 年及以上后端系统、数据系统、数据平台或基础设施研发经验,具备良好的编码习惯、工程设计能力和问题排查能力。
2. Python 工程能力强:熟练掌握 Python,能够使用 Python 构建可维护、可扩展的数据处理框架与工程系统;熟悉常见工程实践,包括包管理、测试、性能分析、并发编程和代码组织。
3. 分布式数据处理经验:具备 Ray、Spark、Flink、Dask 等一种或多种分布式数据处理框架的开发、使用或调优经验;有 Ray Data 实际项目经验者优先。
4. 可观测性与性能优化能力:具备较强的系统分析能力,能够基于日志、metrics、trace、profiling 等手段定位问题并推进优化;有任务运行诊断、性能瓶颈分析、资源调度优化经验者优先。
5. 领域数据处理经验:对时序数据、传感器数据、多模态数据处理有一定理解;有自动驾驶、机器人、具身智能、数据工程或机器学习数据处理相关经验者优先。
6. 良好的协作与产品意识:能够站在用户视角思考平台接口设计与使用体验,愿意与算法、数据、平台和业务团队协作,把复杂能力沉淀为稳定、易用的工具与平台能力。
加分项:
- 有 Ray Core / Ray Data 深度使用或二次封装经验
- 有数据 DAG 编排、任务系统、调度系统开发经验
- 熟悉对象存储、列式存储、Arrow/Parquet 等数据读写链路
- 有自动驾驶、机器人、具身智能、多传感器数据处理经验
- 有高性能数据转换、并行计算、GPU 数据处理链路优化经验
- 有开源项目贡献经验,或持续输出技术博客
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请
分布式数据平台研发大数据开发工程师(Ray)
25-45K * 15薪
北京
本科
岗位职责
作为分布式数据平台研发工程师,你将围绕分布式数据管线平台的产品化、工程化与性能优化展开工作:
1. 数据管线框架研发与接口演进:参与基于 Python 和 Ray Data 的分布式 data pipeline 框架研发,持续优化 Pipeline API、DAG 定义方式、配置机制和任务提交流程,提升平台的易用性、一致性与可扩展性。
2. Pipeline 可观测性建设:建设面向数据管线任务的可观测能力,包括任务状态跟踪、执行日志、指标采集、链路追踪、错误定位、性能分析与运行诊断,帮助用户快速理解任务执行过程并高效排障。
3. 性能分析与调优:针对大规模数据处理任务中的吞吐、延迟、资源利用率、数据倾斜、失败重试、背压、对象存储访问、序列化反序列化等问题开展性能分析和专项优化,持续提升管线执行效率与稳定性。
4. Ray 深度使用与系统优化:深入使用并优化 Ray / Ray Data,结合 Actor、Task、Dataset、调度、内存与对象管理等机制,优化分布式数据处理任务在实际生产环境中的执行表现和资源效率。
5. 具身智能领域数据转换算法实现:围绕视频、传感器流、时序数据、点云等多模态数据场景,实现高性能的数据转换、清洗、切分、对齐、融合、样本生成等处理算法,并持续优化关键处理链路。
6. 工程质量与交付保障:编写高质量、可维护代码,完善测试、文档、CI/CD、异常处理与问题闭环机制,保障平台持续迭代与稳定交付。
岗位要求
我们希望你是一位工程基础扎实、执行力强,同时愿意深入理解数据处理场景与分布式系统细节的工程师:
1. 扎实的工程基础:计算机相关专业本科及以上学历,3 年及以上后端系统、数据系统、数据平台或基础设施研发经验,具备良好的编码习惯、工程设计能力和问题排查能力。
2. Python 工程能力强:熟练掌握 Python,能够使用 Python 构建可维护、可扩展的数据处理框架与工程系统;熟悉常见工程实践,包括包管理、测试、性能分析、并发编程和代码组织。
3. 分布式数据处理经验:具备 Ray、Spark、Flink、Dask 等一种或多种分布式数据处理框架的开发、使用或调优经验;有 Ray Data 实际项目经验者优先。
4. 可观测性与性能优化能力:具备较强的系统分析能力,能够基于日志、metrics、trace、profiling 等手段定位问题并推进优化;有任务运行诊断、性能瓶颈分析、资源调度优化经验者优先。
5. 领域数据处理经验:对时序数据、传感器数据、多模态数据处理有一定理解;有自动驾驶、机器人、具身智能、数据工程或机器学习数据处理相关经验者优先。
6. 良好的协作与产品意识:能够站在用户视角思考平台接口设计与使用体验,愿意与算法、数据、平台和业务团队协作,把复杂能力沉淀为稳定、易用的工具与平台能力。
加分项:
- 有 Ray Core / Ray Data 深度使用或二次封装经验
- 有数据 DAG 编排、任务系统、调度系统开发经验
- 熟悉对象存储、列式存储、Arrow/Parquet 等数据读写链路
- 有自动驾驶、机器人、具身智能、多传感器数据处理经验
- 有高性能数据转换、并行计算、GPU 数据处理链路优化经验
- 有开源项目贡献经验,或持续输出技术博客
岗位亮点
智域基石(ArcheBase)是具身智能数据基础设施的领航者。我们的使命是为机器人提供理解物理世界的"第一性原理",成为下一代智能机器构建认知的基石。
我们致力于构建具身智能数据操作系统,将人类技能数字化,为具身智能提供高质量数据供给。
当前,具身智能行业面临着严酷的"质量天花板",伟大的算法往往受困于匮乏的数据。现实世界的物理法则、因果逻辑、力觉、触觉等多维信息反馈,无法仅凭互联网上的数据习得。没有根基的智能,如同沙上建塔。
智域基石应运而生,致力于解决算法专家的终极焦虑——泛化能力与通用能力。通过提供符合物理定律、涵盖长尾场景的高质量数据,我们将智能从"实验室的过拟合"中解放出来,推向真实世界的广阔天地。
我们的愿景:重新定义具身智能数据的工业标准,让不同构型的机器人都能在同一套认知体系下进化。
为什么智域基石是你工作和建立职业生涯的理想之地
在智域基石,我们不只是构建技术,我们正在塑造机器人与物理世界交互的未来。作为具身智能数据基础设施的开拓者,我们相信高质量的数据是解锁机器人智能的关键。我们的使命是通过构建连接物理世界与数字世界的桥梁,让机器人能够像人类一样感知、理解和行动。
申请