跨注意力在文本到图像扩散模型中使得推理变得繁琐提出了一种简单且无需训练的高效生成方法,该方法在跨注意力输出收敛后将其缓存,并在剩余的推理步骤中保持固定repo: https://github.com/HaozheLiu-ST/T-GATEabs: https://arxiv.org/abs/2404.02747