【26届校招】-大模型攻防青年研究员-安全可信中心

薪资面议
算法工程师
上海
不限

投递时间:2025年8月16日-2028年10月14日

岗位职责
团队介绍: 上海人工智能实验室安全可信团队以Make Safe AI 为核心技术愿景,致力于大模型、具身、智能体及多智能体系统的安全与可信研究,关注模型推理能力与对齐机制的深入理解与优化。我们推动前沿技术在可信推理、对齐方法、攻击与防御、评测体系等方向的创新落地,成果多次发表于顶级学术会议,包括ACL杰出论文、ICLR Oral等。如果你对大模型安全、可信对齐及未来AI能力的潜在风险怀有热情,欢迎加入我们,共同推动从“让AI 变得安全”向“打造安全的AI 转变”,支持人工智能朝着有益、安全、公平方向健康有序发展。 岗位职责: 研究大语言模型(LLM)、多模态模型的潜在安全风险(如Prompt注入、隐私泄露、有害内容生成、模型逆向等); 开发针对模型推理、训练阶段的攻击技术(对抗样本生成、后门植入、数据投毒等); 设计新型防御方案(鲁棒性增强、异常检测、安全对齐、动态防御机制); 多模态安全体系构建:研究跨文本、图像、语音的多模态攻击向量(如跨模态对抗攻击、多模态数据污染); 构建融合多模态特征的安全检测系统,开发针对AIGC内容的水印、溯源技术;探索视觉-语言模型(VLM)的对抗防御策略与可解释性分析"
岗位要求
"任职要求: 硕士及以上学历,计算机科学/网络安全/人工智能相关专业;AI安全领域经验,精通大模型架构(Transformer/BERT/GPT系列); 熟练掌握对抗机器学习技术:FGSM/PGD攻击、防御蒸馏、对抗训练等;具备多模态模型实战经验(CLIP/Stable Diffusion/DALL-E等) 精通Python,熟悉主流AI框架(PyTorch/TensorFlow/JAX) 熟悉模型逆向,对抗攻击,数据投毒,模型鲁棒性增强,输入输出过滤和安全对齐技术(RLHF/宪法AI) 在NeurIPS/ICLR/CCS等顶会发表AI安全相关论文;参与过主流大模型安全评估项目(如MITRE ATLAS框架);有CTF/AI安全竞赛获奖经历;熟悉OWASP Top 10 for LLM等安全标准"
龙文路129号(国际传媒港L1大楼)
牛客安全提示:如发现虚假招聘、广告,或以任何名义索要证件、费用,或诱导异地入职、参与培训等均属违法行为,发现请 立即举报
上海人工智能实验室
未融资
上海
查看其他 33 个职位