推理部署优化/高性能开发 春招总结-1
腾讯
一面
1. Tensorrt-LLM, AGI , VLLM源代码区别
2. 为什么要有continue batch
3. fastllm.cpp 的源代码
4. yolo加速
5. Python 计算密集型使用多进程还是多线程
6. C++继承怎么实现的
7. 最大子数组之和
二面
1. 求比特位中1个个数
2. 编译时运行
3. VLLM ,PageAttention
4. Cuda 内存模型介绍
5. 使用triton 实现 PageAttention
二面挂#金三银四,你有感觉到吗#
#春招提前批,你开始投了吗#
一面
1. Tensorrt-LLM, AGI , VLLM源代码区别
2. 为什么要有continue batch
3. fastllm.cpp 的源代码
4. yolo加速
5. Python 计算密集型使用多进程还是多线程
6. C++继承怎么实现的
7. 最大子数组之和
二面
1. 求比特位中1个个数
2. 编译时运行
3. VLLM ,PageAttention
4. Cuda 内存模型介绍
5. 使用triton 实现 PageAttention
二面挂#金三银四,你有感觉到吗#
#春招提前批,你开始投了吗#
全部评论
佬,面的啥部门呀
送花
回复 分享
请问应该投什么岗位呢这个方向
送花
回复 分享
国泰君安
官网直投
佬,triton实现pagedattention是手撕吗
送花
回复 分享
mark
送花
回复 分享
大佬自学吗还是课题组方向
送花
回复 分享
mark
送花
回复 分享
mark
送花
回复 分享
大佬,这个岗位投递名字是啥啊
送花
回复 分享
相关推荐
也就平平无奇:直接选嵌入式,大模型或者说agi最后的落地也是要做成嵌入式的,现在聊天机器人也只是过渡,嵌入式未来不会变太差,考虑下家庭生活体验就苏州吧
点赞 评论 收藏
分享
点赞 评论 收藏
分享