投递时间:2026年2月26日-2026年5月31日

岗位职责
职位描述 1. 预训练方向 (Pre-training & Architecture):探索大模型能力的边界,负责基座模型的训练与优化。探索超越Transformer的下一代架构(如SSM、MoE、Linear Attention等),优化长上下文(Long Context)与推理效率。 参与万亿级Token的高质量数据清洗、配比与合成数据(Synthetic Data)研究,探索Data-Centric AI的极限。优化Megatron-LM、DeepSpeed等训练框架,解决千卡/万卡集群下的训练稳定性与通信瓶颈。 2. 后训练与对齐方向 (Post-training & Alignment):让模型更“懂”人类,并通过强化学习激发模型的高阶推理与泛化潜能。研发高效的SFT(监督微调)策略,探索参数高效微调(PEFT),优化多轮对话与指令遵循能力。深入研究 PPO、DPO、GRPO 等算法;探索 Online RL(在线强化学习) 机制,通过环境交互与大规模 Self-play(自我博弈),实现模型能力的自主进化。 3. 大模型评测方向 (Evaluation):做大模型的“考官”,建立科学、客观、自动化的能力评估体系。设计针对通用能力、垂类知识、安全性及幻觉(Hallucination)的评测Benchmark。训练LLM-as-a-Judge,利用大模型评估大模型,探索评测的一致性与偏差问题。 4. 大模型应用与Agent构建 (Application & Agents):将模型能力转化为实际生产力,构建能够解决复杂任务的智能体。研发检索增强生成技术,解决向量检索、重排序及上下文融合中的痛点。设计能够自主规划、调用工具(Tool Learning)、记忆与反思的智能体系统(如Multi-Agent协作)。
岗位要求
职位要求 熟练掌握Python/C++,具备优秀的代码风格和算法数据结构基础。 深入理解Transformer原理(Attention机制、位置编码、归一化等),熟悉PyTorch/TensorFlow等主流框架。 对新技术(如OpenAI最新Paper)保持极度敏感,具备快速复现前沿算法的能力。 加分项: 顶会发表: 在ICML, NeurIPS, ICLR, CVPR, ACL, EMNLP等顶级会议以一作发表过高质量论文。 开源贡献: 曾参与HuggingFace, vLLM, DeepSpeed等知名开源项目,或拥有高Star的个人Github项目。 竞赛获奖: 在ACM-ICPC, Kaggle或大模型相关挑战赛中获得Top名次。 实战经验: 曾实际参与过百亿参数(10B+)以上模型的训练、RLHF全流程或大规模RAG系统的落地。 为什么选择我们? 算力自由: 充足的GPU资源,不再因为没有显卡而限制你的想象力。 大牛导师: 业内顶尖科学家作为Mentor,一对一指导你的职业成长。 宽容的创新环境: 我们鼓励Failed Attempts,因为伟大的算法往往诞生于无数次失败之后。
牛客安全提示:如发现虚假招聘、广告,或以任何名义索要证件、费用,或诱导异地入职、参与培训等均属违法行为,发现请 立即举报
深圳虾皮信息科技有限公司
互联网
未融资
深圳市
查看其他 36 个职位