谢谢你,团,秋招结束啦

晚上骑车的时候,团子发来了意向,这下秋招是真的结束了~

简单记录一下秋招历程吧:
腾讯:实习转正
阿里淘天:已意向
快手电商:已意向(没hr面就直接意向了,属实是意外)
美团到店:已意向

剩下的是不顺利的:
字节杭州抖音:一面挂,然后转到北京飞书,不太喜欢就拒了
华子:线下约面太慢了,时间不合适
阿里控股:钉钉面完泡池子,估计挂了

因为鹅的转正结果给的比较早,后续就没怎么投了 摆的比较厉害,很多公司就没投/拒了笔试或面试。
就这样结束吧~躺平噜
祝大家秋招/转正顺利,拿到自己喜欢的offer
#晒一晒我的offer#  #你的秋招进行到哪一步了#  #如何一边实习一边秋招#  #你的秋招进展怎么样了#
全部评论
五带✌️举报了
5 回复 分享
发布于 2023-09-27 23:47 湖北
太强了
1 回复 分享
发布于 2023-10-01 08:23 河北
老哥,团子给开多少💰啊?
点赞 回复 分享
发布于 2023-11-06 01:20 湖南
哪班同学
点赞 回复 分享
发布于 2023-10-28 23:23 浙江
佬快手电商杭州的吗
点赞 回复 分享
发布于 2023-10-10 09:00 湖北
太狠了
点赞 回复 分享
发布于 2023-10-07 21:30 四川
哥们打算选哪个,我也在这里边纠结
点赞 回复 分享
发布于 2023-09-30 15:36 陕西
太强了佬
点赞 回复 分享
发布于 2023-09-28 08:33 黑龙江
举办了哥😭
点赞 回复 分享
发布于 2023-09-27 23:46 湖南

相关推荐

微调(Fine-tuning)是机器学习中一种迁移学习技术,指在预训练模型(如BERT、GPT、ResNet等)的基础上,通过少量特定领域或任务的数据进一步调整模型参数,使其适应新任务。其核心思想是利用预训练模型的通用知识(如语言理解或图像特征提取能力),通过针对性训练提升模型在特定任务上的性能。微调的核心作用1. 节省资源:无需从头训练,减少计算成本。2. 提升性能:预训练模型已学习通用特征,微调能快速适应新任务。3. 小数据友好:适合数据量有限的任务。微调的主要方式1. 全参数微调(Full Fine-tuning)- 方法:解冻预训练模型的所有参数,用新数据更新全部权重。- 适用场景:数据量充足,任务与预训练任务差异较大。- 缺点:计算成本高,可能过拟合小数据集。2. 部分参数微调(Partial Fine-tuning)- 方法:冻结部分层(如底层),仅更新顶层参数。- 冻结策略:预训练模型的底层通常学习通用特征(如语法、低级视觉特征),可冻结;顶层更接近任务,需调整。- 适用场景:数据量较少,任务与预训练任务相似。- 示例:冻结ResNet的前几层,仅微调最后几层用于医学图像分类。 #产品经理#  #牛客激励计划#  #数据人的面试交流地#  #聊聊我眼中的AI#  #面试时最害怕被问到的问题# #牛客AI配图神器#
点赞 评论 收藏
分享
评论
9
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务