专题:attention-mechanism

按该标签聚合的大模型资讯列表(自动分类与标签提取)。11 篇文章。

媒体InfoQ 中文2026/03/25 03:595840
KV Cache用于存储注意力键值对
提升推理效率并减少内存消耗

KV Cache是LLM推理中的关键缓存机制,用于存储注意力键值对以提升生成效率。其核心作用在于减少重复计算,优化内存使用和推理速度。文章详细解析了KV Cache的原理、实现及优化策略,为开发者和研究人员提供了实用的技术参考。

媒体机器之心2026/02/15 18:325940

CineTrans 是一种基于掩码机制的多镜头视频生成模型,通过块对角掩码架构实现时间级可控转场。它结合了扩散模型与注意力机制,引入了高质量的 Cine250K 数据集,提升了多镜头视频生成的自然性和语义连贯性。该模型在 ICLR 2026 接收,具备较强的实验支撑和实际应用价值。