GPU 性能没问题,模型也训练得不错,但 token 吞吐量就是上不去?问题多半出在 KV-cache 上。本文整理了 10 个实际可用的优化方向,都是能直接上生产环境的那种。 把 utilization 往上调,直到不再频繁出现 preemption;然后再调 max-num-seqs,让批次保持密集但别超出 ...