专题:context-window

按该标签聚合的大模型资讯列表(自动分类与标签提取)。6 篇文章。

媒体AWS Machine Learning Blog2026/03/18 23:134830
从 Nova 1 迁移至 Nova 2 需更新模型 ID 和 API 参数
Nova 2 支持 200K 上下文窗口与内置工具调用

本文指导用户将 Amazon Bedrock 上的 Amazon Nova 1 模型迁移至性能更强的 Nova 2,涵盖模型ID更新、API参数调整、新功能(如200K上下文窗口、内置工具与代码解释器)集成等关键步骤。适用于需提升推理能力与自动化水平的AI应用,帮助开发者平滑过渡并最大化新模型优势。

媒体量子位2026/03/03 18:556530

OpenAI的GPT-5.4模型近期意外泄露,多处代码和界面线索指向其存在。传闻该模型将具备200万Tokens的超大上下文窗口,实现对长篇内容的持久记忆;同时,通过支持原始分辨率图像处理,有望提供像素级精准的视觉分析能力。泄露证据包括Codex代码拉取请求、GitHub提交记录及模型下拉选项。尽管存在炒作质疑,但这些迹象预示着OpenAI在长上下文和多模…

社区Reddit r/LocalLLaMA2026/02/12 17:3340

本文探讨了在利用大型语言模型(LLM)进行 RAG(检索增强生成)时,开发者是否过度依赖增大的上下文窗口来容纳信息,而忽视了提升检索质量的重要性。作者指出,即使上下文窗口增大,注意力机制的计算成本依然存在,过多的检索内容可能稀释关键信息,甚至降低模型性能。文章分析了检索过多、块大小不当、提示词冗余等常见问题,并强调了端到端衡量词元数量和优化检索策略(如调整…

社区Reddit r/LocalLLaMA2026/02/11 18:0320

DeepSeek 应用迎来重大更新,现已支持 100 万(1M)的超长上下文窗口,显著提升了模型处理长文本信息的能力。同时,其知识截止日期也更新至 2025 年 5 月,意味着模型能够获取和理解更近期的信息。此次更新对需要处理大量上下文数据的开发者和用户具有重要意义,尽管具体是否为新模型发布以及在开源社区的动态仍待进一步确认。