大模型算子开发实习生
岗位职责:
1.基于PyTorch框架与HuggingFace生态,参与大语言模型(LLaMA4、Qwen3、DeepSeek-R1等)及多模态模型(Qwen-VL、mLlama)的适配、优化与部署
2.探索图像/视频生成模型(Stable Diffusion、Flux)在自研芯片上的高效推理方案
3.实现模型算子融合、量化(INT8/FP16)及精度验证,确保模型在自研硬件上的性能与精度达标
4.完成开源模型与自研芯片的兼容性验证及性能对比
岗位要求:
1.熟悉主流大模型架构(Transformer/MoE)及计算原理(注意力机制、位置编码、扩散过程)
2.熟练使用PyTorch、Transformers、Diffusers库,具备HuggingFace模型部署、微调实战经验
3.掌握模型优化技术:算子融合、ONNX静态图导出等
4.理解多模态模型(视觉-语言对齐)或生成式模型(Diffusion/自回归)的工作机制
5.精通Python,具备CUDA/OpenCL等异构计算基础者优先
加分项:
1.参与过LLM/Multimodal开源项目
2.熟悉ONNX/TensorRT等模型编译工具链
3.了解芯片架构(如NPU/GPU)
4.每周保证4天以上,实习周期3个月及以上
我们提供:
1.深入自研AI芯片与大模型协同优化的前沿战场
2.导师1v1指导,接触业界最新大模型技术
3.表现优异者,可签订正式合同。
联系方式: **********
1.基于PyTorch框架与HuggingFace生态,参与大语言模型(LLaMA4、Qwen3、DeepSeek-R1等)及多模态模型(Qwen-VL、mLlama)的适配、优化与部署
2.探索图像/视频生成模型(Stable Diffusion、Flux)在自研芯片上的高效推理方案
3.实现模型算子融合、量化(INT8/FP16)及精度验证,确保模型在自研硬件上的性能与精度达标
4.完成开源模型与自研芯片的兼容性验证及性能对比
岗位要求:
1.熟悉主流大模型架构(Transformer/MoE)及计算原理(注意力机制、位置编码、扩散过程)
2.熟练使用PyTorch、Transformers、Diffusers库,具备HuggingFace模型部署、微调实战经验
3.掌握模型优化技术:算子融合、ONNX静态图导出等
4.理解多模态模型(视觉-语言对齐)或生成式模型(Diffusion/自回归)的工作机制
5.精通Python,具备CUDA/OpenCL等异构计算基础者优先
加分项:
1.参与过LLM/Multimodal开源项目
2.熟悉ONNX/TensorRT等模型编译工具链
3.了解芯片架构(如NPU/GPU)
4.每周保证4天以上,实习周期3个月及以上
我们提供:
1.深入自研AI芯片与大模型协同优化的前沿战场
2.导师1v1指导,接触业界最新大模型技术
3.表现优异者,可签订正式合同。
联系方式: **********
全部评论
相关推荐
点赞 评论 收藏
分享
