岗位职责: 1.基于 vLLM/SGLang/LMDeploy 等开源推理框架,进行自研推理引擎的功能对比测试2.基于前沿推理加速技术,在自研推理框架上做功能验证:动态批处理优化(Continuous Batching)PageAttention 显存管理推测解码(Speculative Decoding)块预填充(Chunk Prefill)Prefix Caching 优化3.对 Qwen3 Moe/DeepSeek-R1/Qwen-VL 等模型进行算子级精度验证,确保自研框架输出精度达标4.编写技术文档,输出自研推理框架在自研硬件上的精度Benchmark报告岗位要求:1.深入理解至少1个开源推理框架(vLLM/LMDeploy/SGLang 核心机制)2.熟悉大模型推理全流程:Tokenization→Prefill→Decoding→Sampling3.掌握 PageAttention/KV Cache 等显存优化原理,了解 FlashAttention 加速技术4.具备PyTorch CUDA扩展开发能力,能调试模型计算图加分项:1.参与过vLLM、SGLang等实际开发部署项目2.了解芯片架构(如NPU/GPU)3.每周保证4天以上,实习周期3个月及以上我们提供:1.深入自研AI芯片与大模型协同优化的前沿战场2.导师1v1指导,接触业界最新大模型推理优化技术3.表现优异者,可签订正式合同。公司有中科院背景,学术、技术氛围浓厚。有多位中科院博士带队,学历都是硕士及以上。