【27届留用实习生】-安全可信智能体-安全可信AI中心
薪资面议
算法工程师 上海 不限 4天/周 最少3个月 有转正

岗位职责
上海人工智能实验室安全团队专注于研究大模型和智能体的可信和安全,致力于从理解和提升角度推动人工智能向善发展。如果你对可信推理、安全攻防、对齐、可解释性等技术充满热情,或是对人工智能未来的涌现能力和潜在风险抱有深切的责任感,欢迎加入大模型安全团队。团队研究成果显著,多篇研究成果发表在顶级会议上,如CVPR Best Paper Award Candidate, 连续两年ACL Outstanding Paper Award, ICLR Oral和多篇ACL Oral等。
1. 核心参与深入研究大模型和人类价值观对齐的问题,包括内对齐、外对齐、自对齐等,和团队合作开发RLHF, GRPO等强化学习技术,以及对前沿强化学习路线研究。
2. 负责AI 智能体全链路安全研究,覆盖终端智能体、电脑操作智能体、具身智能体等复杂交互场景。构建智能体安全评测体系,设计评测基准、风险数据集与自动化评测工具,支撑智能体安全能力量化评估。
3. 开展智能体轨迹级安全监控与细粒度风险诊断,定位风险来源、失效模式与危害后果,实现可解释风险溯源。
4. 研究智能体安全对齐技术,包括Agentic SFT和RL,研发安全护栏、防御机制与对齐优化方法。
岗位要求
1. 本科及以上学历,博士学历优先,计算机科学、电子信息、自动化或机器人相关专业背景优先,一年及以上工作经验者优先;
2. 具备扎实的机器学习和深度学习基础知识和算法实践能力,了解大模型的设计和训练流程;
3. 有大模型安全、智能体安全、对齐、可解释 AI、安全攻防相关研究 / 项目经验者优先。
4 熟悉常用的深度学习框架和工具,具备良好的编程能力,熟练使用Python、C/C++等编程语言;
5. 在CVPR、NeurIPS、ICLR等人工智能会议有出色发表记录者优先。
加分项:
1. 在信息学奥赛、ACM 中获奖;
2. 具备安全护栏、风险评测、轨迹诊断、提示注入(Prompt Injection)防御等项目经验。
3. 参与过开源大模型 / 智能体安全相关项目开发。
牛客安全提示:如发现虚假招聘、广告,或以任何名义索要证件、费用,或诱导异地入职、参与培训等均属违法行为,发现请
立即举报