首页 > 试题广场 >

PagedAttention(vLLM)解决了KV Cach

[单选题]
PagedAttention(vLLM)解决了KV Cache管理的什么核心问题?
  • KV Cache计算速度太慢
  • KV Cache的内存碎片化和无法动态扩展导致的显存浪费
  • 多GPU环境下KV Cache的同步问题
  • KV Cache的精度损失问题

这道题你会答吗?花几分钟告诉大家答案吧!