通信工程就业求助
就业求助
本人双非通信工程专硕研一,导师实验室目前做纯算法,就是阵列信号波束形成一类,主要是做优化,MATLAB,目前导师给的方向是稀疏阵列波束形成。了解了研三师兄就业,目前都在转软开学java,c++。之前选导师想以后做雷达,来了之后这边也没有实际项目做雷达信号处理,就是波束形成,优化,matlab。
目前对于后面找工作有点迷茫,希望大家帮我出出主意,我罗列一下想知道的点:
1.研究生做稀疏阵列波束形成,优化,matlab,有哪些对标的企业和岗位?
2.这个方向后面还能转向哪些岗位,我整体还是想继续做通信相关的。
3.大家平常怎么找可以投哪些企业,我很想确定2-3个未来就业岗位方向,然后把每个方向对口的企业找出来然后研究招聘要求,但是不知道该怎么去做,也就只知道一些大家都知道的大厂。
4.大家想到什么就说啥,我感觉非常需要拓宽一下视野。过去一直想就找坚定找一类工作(太不现实了)。
提前谢谢各位的建议。
本人双非通信工程专硕研一,导师实验室目前做纯算法,就是阵列信号波束形成一类,主要是做优化,MATLAB,目前导师给的方向是稀疏阵列波束形成。了解了研三师兄就业,目前都在转软开学java,c++。之前选导师想以后做雷达,来了之后这边也没有实际项目做雷达信号处理,就是波束形成,优化,matlab。
目前对于后面找工作有点迷茫,希望大家帮我出出主意,我罗列一下想知道的点:
1.研究生做稀疏阵列波束形成,优化,matlab,有哪些对标的企业和岗位?
2.这个方向后面还能转向哪些岗位,我整体还是想继续做通信相关的。
3.大家平常怎么找可以投哪些企业,我很想确定2-3个未来就业岗位方向,然后把每个方向对口的企业找出来然后研究招聘要求,但是不知道该怎么去做,也就只知道一些大家都知道的大厂。
4.大家想到什么就说啥,我感觉非常需要拓宽一下视野。过去一直想就找坚定找一类工作(太不现实了)。
提前谢谢各位的建议。
全部评论
一定要转码,嵌入式这种都可以,通信算法一点出路没有,华为中兴hc都少了很多,别的公司基本不招,matlab也基本退环境了
做不了硬件就转码,算法要求很高,博士或者顶刊顶会,通信物理层就是坨勾史
转码,嵌入式,嵌入式特别多岗位
一模一样,基本上另一个我,我在电专,导师也是做MIMO传统通信的,师兄也在转码,我也很迷茫。
转码,听劝
Cpp嵌入式也有用的,偏QT一点。但是别去用cpp搞互联网,岗位巨少
我是做协议的,导师有互联网项目才比较好找工作,转嵌软或者编码c加加
方向差不多,楼主交流一下如何?
java
老哥能交流下波束形成吗
转码
我也是做这个的,毫米波MIMO波束成形,也有SCI和专利,目前研三找不到相关的工作,算法要求很高,只会个matlab根本不够,要么选择读博。
波束成形
这个转雷达信号处理好转吗?
相关推荐
03-03 02:30
电子科技大学 算法工程师 发一下问题给大家参考,攒攒人品!1. 项目相关的访存优化问题2. 算子融合的实现难点3. 负载均衡问题4. 如何判断优化是否到瓶颈了5. 常见量化策略
查看5道真题和解析 点赞 评论 收藏
分享
点赞 评论 收藏
分享
03-03 10:35
门头沟学院 机器学习 在改简历的大卫很认真:1. 训练时间估算
时间 ∝ 总FLOPs / (算力FP8/FP16 × 利用率)
总FLOPs ≈ 6 × 参数 × Token数
再除以单卡算力、并行数、利用率,就是时长。
2. Prefill / Decode 优化
- Prefill:长序列并行、FlashAttention、分块、算子融合、向量化
- Decode:KV cache、连续Batch、PagedAttention、Speculative Decoding
3. Two-batch overlap
- 同时跑两个微批次,计算/通信重叠
- 负优化:计算太快、通信太小、显存不够、调度 overhead 盖过收益
4. Megatron-LM 通信优化
TP+PP+DP三维并行;
重叠通信计算;
分桶AllReduce;
激活重计算;
减少跨节点通信量。
5. PD分离(PP+DP)为什么要KV transfer
为了流水线+数据并行一起用,提高吞吐;
虽然有KV拷贝成本,但整体能堆更大Batch、更高利用率。
6. MuON / AdamW 不能混用
优化器状态、动量、更新逻辑完全不兼容;
预训练用一个,微调换另一个,状态不匹配,直接训崩/不收敛。
7. 跨SM PD / AF 分离
核心:拆任务、提高 occupancy、隐藏延迟;
PD:并行度拆分更干净;
AF:聚焦注意力/前馈访存与计算重叠;
看模型结构、Kernel瓶颈选。
8. CUDA Global / Shared 注意
- Global:对齐、连续访问、合并访存、少随机读、用L2缓存
- Shared:防bank conflict、分块复用、同步_sync、容量控制
9. DeepSeek-V3 优化点
高效架构+长序列支持;
优化Attention/FFN计算;
更好的并行策略;
推理侧低延迟高吞吐。
10. DeepSeek-DSA/NSA/MoBA
- DSA:领域稀疏注意力
- NSA:神经稀疏注意力
- MoBA:混合专家注意力
核心都是稀疏化、省计算、扩容量。
11. NCCL 原语 & AllReduce 次数
原语:Send/Recv、Broadcast、Reduce、AllGather、ReduceScatter、AllReduce
Ring AllReduce:2次(ReduceScatter + AllGather)。
12. 小数据量 NVSHMEM vs Ring AllReduce
少了Ring多跳延迟;
直接GPU-GPU读+本地Reduce;
小数据下延迟更低、更简单。
13. 超长序列训练并行
TP+PP+CP(上下文并行)+ ZeRO;
分块Attention、分块FFN;
激活重算+KV复用;
控制通信量。
14. Ampere → Hopper 算子升级
- 用TF32、FP8、新指令
- 适配TMA、异步拷贝
- 优化Warp调度、 occupancy
- 重写Attention/MatMul,用Hopper专属优化
查看14道真题和解析 点赞 评论 收藏
分享
