视觉生成模型的内生安全对齐与伦理约束机制研究- A Star-阿里巴巴2027届实习生

薪资面议
算法工程师
杭州
本科

投递时间:2026年4月24日-2027年4月24日

岗位职责
1.内生安全机制研究:研究视觉生成模型的训练过程,如何将内容安全、版权合规及伦理约束转化为可微分的损失函数或架构约束,实现安全能力的“内生化”; 2.价值观对齐探索:探索基于人类反馈的强化学习(RLHF)或直接偏好优化(DPO)在视觉领域的应用,确保模型生成内容符合普世价值观及特定区域的法律法规要求; 3.对抗鲁棒性建设:构建自动化红队测试(Red Teaming)流程,结合视觉生成模型的特点,针对各类攻击进行压力测试,并设计防御机制以提升模型的鲁棒性; 4.安全与效用平衡:在保障安全底线的前提下,优化模型生成质量,探索安全约束与创作自由度之间的最优解。
岗位要求
1.学历背景:在读博士研究生,计算机科学、人工智能、数学、网络安全或相关专业。 2.技术基础:精通 PyTorch/TensorFlow 等深度学习框架,熟悉 LLM、Diffusion Model、GAN 等的原理和实践,有大规模模型训练经验者优先。 3.安全知识:对 AI 安全(AI Safety)、对抗机器学习(Adversarial ML)或内容安全有一定理解,不满足于现有的黑盒防御方案。 4.代码能力:具备优秀的工程实现能力,能够独立复现前沿论文算法,并在分布式训练环境中进行调试。 5.沟通能力:具备良好的团队协作能力,能够清晰地向算法工程师、合规专家及产品经理阐述安全方案的技术原理。 加分项 1.学术成果:在 CVPR, ICCV, NeurIPS, ICML, CCS, USENIX Security 等顶级会议发表过与生成模型、安全对齐或对抗防御相关的论文。 2.开源贡献:在 HuggingFace, GitHub,魔搭 等平台有过知名开源项目贡献,或参与过安全相关的开源工具开发。 3.跨学科背景:拥有法学、哲学、社会学等辅修背景,或参与过 AI 伦理相关的研究项目。 4.竞赛经历:在 Kaggle、CTF 或 AI 安全挑战赛中获得过优异名次。 5.实习经验:有大型云厂商、AI 实验室或安全厂商的实习经历。
牛客安全提示:如发现虚假招聘、广告,或以任何名义索要证件、费用,或诱导异地入职、参与培训等均属违法行为,发现请 立即举报
阿里巴巴集团
电商
不需要融资
杭州市
查看其他 506 个职位