华为AI安全/隐私保护2026届校园招聘

#360公司# 毕业要求:2026届
投递时间:2025年06月28日-2025年9月28日

岗位职责:
负责面向5.5G/6G的AI安全、AI Agent安全技术研究,围绕多模态大模型安全、AI Agent安全防御,形成先进AI&AI Agent安全技术持续储备,使能商业创新,助力商业成功。
1、负责华为全线产品的AI安全攻防测试,从客户视角进行独立验证和揭示风险,看护安全质量;
2、跟进研究最前沿的AI安全验证技术和方法;
3、参与隐私保护技术在AI产品与服务中的设计与实现;
4、制定AI领域新技术、新业务发展的隐私保护合规架构,参与业界相同行业标准和规范制定。

岗位要求:
1、计算机、软件、人工智能、机器学习、网络安全、数学、信息安全、密码学相关专业本科及以上学历,其中人工智能相关专业优先;
2、有AI项目相关经验,至少熟练掌握以下语言中的一种:C/C++/GO/Python/PHP/Shell/Rust等编程语言及脚本语言;
3、对人工智能和机器学习概念、算法和框架精通,熟练掌握与AI相关的安全风险;
4、在高水平国际会议和学术期刊发表过相关论文,或有高水平竞赛获奖经历者优先;
5、对安全攻防、渗透测试等相关专题有相关经验,有信息安全竞赛,AI安全竞赛,网络安全大赛(如CTF)经验者优先;
6、具备团队意识,与他人合作良好,最好具有团队协作的经验。#华为#

全部评论

相关推荐

GRPO(Group Relative Policy Optimization)虽然最初是为强化学习中的reasoning任务(如需要多步决策、逻辑推理的任务)设计的,但其核心思想——通过组内策略的相对比较来优化策略——也可以应用于非reasoning任务(如简单的控制任务、分类任务甚至生成任务)。以下是具体的分析和建议:首先我们看下GRPO的关键创新点是:✅组内相对比较(Group Relative):将策略分成若干组(group),在组内比较不同策略的表现,而非绝对优化单个策略。✅相对策略梯度:通过组内策略的相对优势(relative advantage)计算梯度,降低方差并提升稳定性。这种思想本质上是一种基于比较的优化方法,与任务是否需要“reasoning”无直接关系,因此可以迁移到非reasoning任务中。🤔那么有哪些非Reasoning任务的适用场景呢?(1)简单控制任务(如机器人控制)问题:传统PPO可能因稀疏奖励或高方差导致训练不稳定。GRPO改进:将不同控制策略分组(例如不同参数化的控制器),在组内比较它们的表现,选择相对更优的策略更新。示例:机械臂抓取任务中,组内可以包含不同的抓取轨迹策略,通过相对优势选择更稳定的策略。(2)生成任务(如文本/图像生成)问题:生成模型的策略优化通常依赖对抗训练(GAN)或最大似然,容易陷入模式崩溃。GRPO改进:将生成器分成多个组(例如不同初始化或架构的子生成器),通过组内生成样本的质量相对比较优化策略。示例:在文本生成中,组内比较不同生成策略的流畅性、多样性等指标。(3)分类/回归任务问题:传统监督学习直接优化损失函数,可能对噪声敏感。GRPO改进:将模型的不同参数化版本(如不同dropout、超参数)分组,通过组内相对性能(如验证集准确率)更新模型。示例:图像分类中,组内比较不同数据增强策略的效果。✴️总结GRPO可以用于非reasoning任务,但需重新设计组的划分方式和相对比较的指标。其核心优势在于通过组内相对优化降低方差,适合奖励稀疏或需要多策略并行的场景。如果任务本身已有高效优化方法(如标准的监督学习),GRPO可能不会带来显著提升。🍊如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务