招银网络科技开奖(搏一搏还是直接签)

投票
今天刚收到招银网络的 offer,高兴的同时也纠结了,果然人是贪心的。

之前没 offer 的时候焦虑的不行,只求来一个就行,现在有了一个还想找个更好的。

目前有顺丰科技(武汉)进入终试,泰隆银行周六面试,菜鸟(杭州)下周二面试,洽洽(合肥)主管面刚结束,海康一面结束(这个应该不去,HR 直接暗示加班和单休了),腾讯云智下周一面试。

看爆料菜鸟能有 19*16,招银这个差了不少,一周内要签三方,违约金不少,解约的话四月份才办手续,感觉基本上签了就没办法违约了。

有无懂哥科普下几个公司,工作压力和薪资待遇啥的,咱要不要冲一波菜鸟,还是招银签了结束秋招。

求助求助,本人双二本硕,老家安徽

#来选选带哪个offer回家过年# #晒一晒我的offer# #你的秋招进行到哪一步了# #招银网络# #菜鸟# #招银网络求职进展汇总#
全部评论
感觉招银像是统一价格,不知道工作强度大不大嘞
1 回复 分享
发布于 2024-10-11 09:53 陕西
蹲一手,感觉给得太少了
1 回复 分享
发布于 2024-10-10 21:42 陕西
佬,你们学校发了三方吗?招银可怜可怜我吧,等了这么久的资料审核,g
1 回复 分享
发布于 2024-10-10 20:53 广东
我也有招银,已经拒了。强度不低,末位淘汰,风评很差
点赞 回复 分享
发布于 2024-10-28 15:08 吉林
周五的地址,周六的dz
点赞 回复 分享
发布于 2024-10-25 10:42 安徽
大佬菜鸟几面啊
点赞 回复 分享
发布于 2024-10-20 01:17 浙江
老哥我和你情况差不多,但招银和菜鸟给的差不多吧,最后怎么选的
点赞 回复 分享
发布于 2024-10-14 14:14 新加坡
我和你反过来了,菜鸟给我发意向了,但是招银sp面完了到现在没消息,还在资料审核。
点赞 回复 分享
发布于 2024-10-14 10:18 吉林
楼主base哪里
点赞 回复 分享
发布于 2024-10-13 12:48 河南
不太明白,菜鸟也才30吧,招银硕士的话应该也有个25+吧,这没差多少啊
点赞 回复 分享
发布于 2024-10-11 17:56 广东
想问一下佬,只是看到官网状态变化,说是发邮件确认,但是还没收到邮件,这算是有还是没有呀
点赞 回复 分享
发布于 2024-10-11 17:50 广东
羡慕了,我招银和菜鸟都笔试挂
点赞 回复 分享
发布于 2024-10-11 14:43 上海
工大的吗
点赞 回复 分享
发布于 2024-10-11 11:41 安徽
一个礼拜,太离谱了吧
点赞 回复 分享
发布于 2024-10-11 11:40 北京
洽洽还有Java吗😂
点赞 回复 分享
发布于 2024-10-10 23:48 湖北
佬,请问线下面完个人感觉如何,我面的效果不好,想参考一下有没有机会
点赞 回复 分享
发布于 2024-10-10 22:10 四川
佬,接了offer之后,多久之内要签三方
点赞 回复 分享
发布于 2024-10-10 21:31 湖北

相关推荐

AI大模型算法,一环扣一环的拷打Transformer 基础详细介绍 Transformer 架构(Encoder-Decoder 结构、位置编码、FFN 等)Decoder 的因果注意力中,Q、K、V 分别来自哪里?→ Q 来自当前 Decoder 输入(已生成的 token 序列),K 和 V 也来自同一序列(需 mask 未来信息)Attention 为什么要 scaled?不做会怎样?为什么是√dₖ?→ 点积随 dₖ增大会让 softmax 进入饱和区,导致梯度消失;除以√dₖ可使方差稳定在 1(数学推导参考 Vaswani 论文)Transformer 如何加速推理?KV Cache 是什么?训练 vs 推理的并行性差异?→ 训练时所有 token 并行计算;推理时自回归,KV Cache 可缓存历史 K/V,避免重复计算,大幅提速多模态论文深挖(以 Video-LLaMA 为例)讲解 Video-LLaMA 的整体结构→ 视频编码器(如 ViT + Temporal Aggregator)→ 投影层(对齐文本空间)→ LLaMA 语言模型论文中 CoT(Chain-of-Thought)的具体设计?→ 在 prompt 中加入推理步骤示例(如 “视频中先看到人挥手,然后狗跑过来…”),引导模型分步作答微调 & 分布式训练微调用了 LoRA,介绍其原理→ 将权重更新 ΔW 分解为低秩矩阵 A×B,冻结原模型,只训练 A、B,大幅减少可训练参数LoRA 初始化怎么做?秩(rank)设为多少?为什么选这个值?→ A ~ N (0, σ²),B 初始化为 0;常用 rank=8 或 16,在效果和参数量间取得平衡(实验验证)知道 DeepSpeed 和 Megatron 吗?分别说说→ DeepSpeed(微软):主打 ZeRO 显存优化;Megatron-LM(NVIDIA):张量并行 + 流水线并行论文用 DeepSpeed,三个 Stage(ZeRO-1/2/3)分别是什么?→ Stage1:优化器状态分片;Stage2:+ 梯度分片;Stage3:+ 模型参数分片(通信换显存)二面下一篇再写吧,力竭了
查看10道真题和解析
点赞 评论 收藏
分享
查看15道真题和解析
点赞 评论 收藏
分享
评论
8
8
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务