26届简历拷打

项目一个是犬小哈的小哈书,这个是知识星球里的有简历模板,另一个是黑马的神领物流,这个我没找到模板就自己写了(感觉写的挺那啥的)
然后感觉这两个项目有点重复
接下来打算寒假再沉淀八股和算法,然后3月开始投大厂了,应该是投暑期(虽然我一直以为那时候也是日常,没想到暑期这么早就开了)
求求各位大佬给简历提点建议,顺便问问长沙有哪些好厂子,因为去外地实习还要租房子,打算先看看能不能拿到本地的offer #投递实习岗位前的准备#  #简历中的项目经历要怎么写# #听劝,我这个简历该怎么改?#
全部评论
专业排名35别写了,实习可以写详细一点,校友总体简历不错的
2 回复 分享
发布于 01-02 20:55 贵州
牛逼校友
2 回复 分享
发布于 01-02 18:58 湖南
请问一下,神灵物流这个项目做的时候,导入虚拟机后,再部署manager项目的时候,一直部署不成功报错是docker拉不下来jdk11,您这个是怎么解决的,或者说遇到这样的问题了吗。还是说挂节点了,我挂节点后jenkins都打不开了。
1 回复 分享
发布于 07-04 22:31 北京
请问小红书项目学完要多久
1 回复 分享
发布于 01-16 21:34 湖南
确实两个项目有点重复,但是选什么的话,一些博主之前都有分享过,其实换掉第二个的话会好像很多,荣誉奖项的话加上时间,然后可以往上放,专业排名前35%就不用写了,写平均分就行
1 回复 分享
发布于 01-02 20:25 四川
以及到底是备战暑期还是说寒假接着投日常呢😣
1 回复 分享
发布于 01-02 12:19 湖南
感觉技术栈的描述和项目细节的描述都不太好
1 回复 分享
发布于 01-02 12:10 湖南
老哥 小哈书这个项目值得做吗 实在找不到什么好的项目了 你现在面试的怎么样啦
点赞 回复 分享
发布于 06-03 22:45 上海
楼主有没有2.0的完整代码,球球
点赞 回复 分享
发布于 03-16 16:52 广西
物流烂大街了
点赞 回复 分享
发布于 03-14 13:35 山东
佬,神领物流做完大概要多久啊?
点赞 回复 分享
发布于 03-10 08:41 湖北
佬简历模板能发一份不谢谢!
点赞 回复 分享
发布于 02-28 21:25 吉林
mark
点赞 回复 分享
发布于 02-27 11:11 广东
兄弟,神领物流还能跑不?
点赞 回复 分享
发布于 02-12 00:17 河南
佬,小红书项目是哪里的
点赞 回复 分享
发布于 02-06 00:20 广东
hxd求一份简历模板
点赞 回复 分享
发布于 02-02 20:57 浙江
兄弟小哈书项目你感觉怎么样,我也想做一个
点赞 回复 分享
发布于 01-12 11:51 四川
大佬,神领物流那块简历你有优化嘛,能不能分享一下 我感觉拆分出几个重要的微服务,列出来里面的技术会更好?
点赞 回复 分享
发布于 01-06 01:08 广东
考虑志杰不哥们,很是缺人,可转正
点赞 回复 分享
发布于 01-05 11:42 河北
校友真强啊,瑟瑟发抖了
点赞 回复 分享
发布于 01-04 22:09 湖南

相关推荐

GRPO(Group Relative Policy Optimization)虽然最初是为强化学习中的reasoning任务(如需要多步决策、逻辑推理的任务)设计的,但其核心思想——通过组内策略的相对比较来优化策略——也可以应用于非reasoning任务(如简单的控制任务、分类任务甚至生成任务)。以下是具体的分析和建议:首先我们看下GRPO的关键创新点是:✅组内相对比较(Group Relative):将策略分成若干组(group),在组内比较不同策略的表现,而非绝对优化单个策略。✅相对策略梯度:通过组内策略的相对优势(relative advantage)计算梯度,降低方差并提升稳定性。这种思想本质上是一种基于比较的优化方法,与任务是否需要“reasoning”无直接关系,因此可以迁移到非reasoning任务中。🤔那么有哪些非Reasoning任务的适用场景呢?(1)简单控制任务(如机器人控制)问题:传统PPO可能因稀疏奖励或高方差导致训练不稳定。GRPO改进:将不同控制策略分组(例如不同参数化的控制器),在组内比较它们的表现,选择相对更优的策略更新。示例:机械臂抓取任务中,组内可以包含不同的抓取轨迹策略,通过相对优势选择更稳定的策略。(2)生成任务(如文本/图像生成)问题:生成模型的策略优化通常依赖对抗训练(GAN)或最大似然,容易陷入模式崩溃。GRPO改进:将生成器分成多个组(例如不同初始化或架构的子生成器),通过组内生成样本的质量相对比较优化策略。示例:在文本生成中,组内比较不同生成策略的流畅性、多样性等指标。(3)分类/回归任务问题:传统监督学习直接优化损失函数,可能对噪声敏感。GRPO改进:将模型的不同参数化版本(如不同dropout、超参数)分组,通过组内相对性能(如验证集准确率)更新模型。示例:图像分类中,组内比较不同数据增强策略的效果。✴️总结GRPO可以用于非reasoning任务,但需重新设计组的划分方式和相对比较的指标。其核心优势在于通过组内相对优化降低方差,适合奖励稀疏或需要多策略并行的场景。如果任务本身已有高效优化方法(如标准的监督学习),GRPO可能不会带来显著提升。🍊如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
22
74
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务