中兴裁员吗?

【文章搬运自-小某书兴职人,一个有东西的博主】

对于这道问题,包括中兴在内的很多企业给出的答案都惊人的一致:没有裁员,属于正常人才流动。

但实际上,想要更好的理解“人才流动”,就要先了解企业拓展新业务时带来的连锁反应。

今年职人最强烈的感受,就是中兴在AI智算方面的投入和关注力度空前。但众所周知,中兴通讯此前或者或主营赛道其实是传统通讯ICT方向,业务焦点的拓展势必带来人才结构的精调。

如何将传统的通讯人才转化为能搞/擅长搞AI和智算的专业团队?
①主动换血,精准招人。②内部流转,学习培养。

很显然,在控制成本的前提下,方法一是非常直接的方案,能让人才快速流动起来。今年中兴HC最多的岗位,一眼看就是智算、软开方向。职人发现,智算方面的SSP开价大概比往年普通SSP高2-3K,在整个Offer情况缩水的形势之下,中兴为了吸引智算人才似乎拿出了更多诚意。

但它毕竟尚居于业务拓展的漫漫长路上,即老业务要维持,新业务也要拓展,人才结构调整也不可能一刀切。因此,在很多人疑惑中兴为何不自曝业务转型,然后顺其自然进行大规模优化时,而是默默选择了“钝刀割肉”。

除此之外,目前中兴的很多团队都在做人才的内化转型,职人认识的无线、有线不少非专业出身的同事,都在渐渐转型成为AI教练,跟着做公司的关键项目。而这需要高度的自趋和学习能力,很多技能模块已经固化的同事由于适应不了转型,只能接受被业务边缘化的命运。

回到原题,中兴还裁员/裁应届吗?从舆论维度的结果来看,21届似乎成为“重灾区”。这可能是由于21年校招是历年来招聘人数的“大年”,加上当时的招聘大头依然聚焦在通讯专业。就这样,23年底,中兴一度陷入“裁员劝退”,不少已签约同学都担心遭遇不测,为了更好的挽回口碑和形象,公司内部也发生了一些微妙的变化,而职人的一位好友就深有体会。

23年春节前夕,他曾被领导“约谈”看看机会,春节回来后,领导态度忽然变了,跟他大谈职业发展和保留。好在这位好友真心不想离职,外部环境太寒冷,他便踏实收下了领导的这份“好意”。

中兴的人才结构调整注定是一个漫长的过程,而新加入中兴的同学只要保持自趋和成长,被卡转正或干掉属于小概率事件,这或许是因为近1-2年里,中兴更加青睐的人才专业已经发生了一些调整和变化,相信在今年的面试中,很多人已经有所体会。
#中兴求职进展汇总#  #中兴秋招#

但放在更长的时间线上,可能只有保持优秀,才跑得过时间。
全部评论

相关推荐

点赞 评论 收藏
分享
1.请简述什么是大模型,以及它与传统模型的主要区别是什么?2.你如何评估大模型的性能?有哪些常用的评估指标?3.请描述一下你如何对大模型进行优化,以提高其性能和效率。4.你是否有过使用或开发大模型的经验?请分享一个具体的案例。5.大模型中的注意力机制是如何工作的?它在大模型中起到了什么作用?6.大模型中的优化算法有哪些常见的选择?它们各有什么优缺点?7.如何处理大模型训练过程中的梯度消失或梯度爆炸问题?8.在大模型设计中,如何权衡模型的复杂度和性能?9.面对大模型训练和推理所需的庞大计算资源,你有什么解决建议?10.请简述你了解的大模型的主要结构特点。11.reward bench上的reward model分哪几类?12. reward model如何训练的,训练目标是什么?13.dp0训练的损失函数和训练目标,dpo如何改进怎么理解大模型安全,包含哪些方面的内容?14.指令跟随能力的评估集有什么,如何评估的?15.阿尔法狗强化学习策略是什么?提升推理能力和指令跟随能力哪个更难, 为什么, 提升指令跟随能力的优化方式和其他的比如推理有什么不一样的地方?16.dpo训完了一般输出长度会变化吗? 如何解决这个问题大模型训练过程学习率一般是怎么变化的, 退火阶段学习率如何变化的?17.在开发大模型时,当你面临推理阶段的资源需求时,你如何确保模型的可解释性和公平性?18.谈谈你对Transformer模型的理解,以及它在自然语言处理中的应用。19.请简述Transformer的基本结构和工作原理?20.为什么Transformer使用位置编码(Positional Encoding)?21.如何优化 Transformer 模型的性能?22.Transformer在自然语言处理中有哪些应用?23.transformer里边norm的位置在哪里,norm如何计算的多头自注意力机制的作用是什么?24.注意力机制为什么除以根号dk, 为什么不是dk请解释什么是注意力机制,并举例说明其应用场景。25.注意力机制是如何工作的?请简述其计算过程。26.多头注意力机制是什么?它相比单头注意力有什么优势?📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看26道真题和解析
点赞 评论 收藏
分享
项目适用岗位:互联网C++后端, 大模型端侧部署 ,自动驾驶/机器人具身智能C++开发1、底层通信组件方案通信模式封装支持兼容多种通信模式普通消息模式:PUB/SUB(发布订阅)、PUSH/PULL(点对点通信)RPC 模式:通过ZMQ_REP、ZMQ_REQ 封装 RPC 功能RPC功能支持 RPC 方法的动态注册提供默认的 RPC 方法列表查询支持 RPC 调用2、Master模块(实现思路:类似ROS1 Master功能, 更轻量化)背景:分布式大模型系统中,多个节点(如llm/vlm, asr,tts, camera,yolo)需要动态发现彼此并高效通信,外部用户可以动态管理节点内任务调度​​节点注册与发现​实现轻量化内存kv缓存数据库:存储节点元信息;并提高sql查询接口,供节点动态通信节点启动时向Master模块注册,上报自身元信息;节点通信时自动匹配动态任务调度分配设计用户请求-任务匹配机制:外部用户仅封装简易数据包请求,可实现动态控制各个模块(启停/llm推理等)3、Channel模块封装上层发布-订阅(PUB/SUB)和点对点通信(PUSH/PULL)混合通信模式设计闭包,通过闭包将​​网络层​​(ZeroMQ)与​​业务层​​(用户回调)解耦,同时隐式维护了通信上下文状态。4、Infra基础架构模块rpc分布式控制指令下发+异步​事件驱动架构​​注册rpc_setup/rpc_pause等分布式控制接口->注册eventpp事件监听->上层触发rpc调用 -> 添加eventpp事件队列中-> 异步事件驱动->各子类Setup/Pause等功能接口标准化控制协议​​基于抽象接口(Setup/Pause等)实现跨模块统一管控,支持LLM/ASR/TTS等异构节点无缝集成5、TASK模块与Infra模块关系:类似与进程和线程之间关系,Infra模块负责资源分配和流程管控,TASK模块是真正干活的,干的活如下:各模块中模型生命周期管理(加载/卸载)infra推理包装回调输出等等            
点赞 评论 收藏
分享
评论
7
5
分享

创作者周榜

更多
牛客网
牛客企业服务