专题:llm-optimization

按该标签聚合的大模型资讯列表(自动分类与标签提取)。23 篇文章。

媒体Lobsters AI2026/04/04 21:343800
自蒸馏技术通过教师模型软标签指导学生模型训练
简化传统蒸馏流程,计算成本低且效果显著

本文提出一种极简自蒸馏技术,通过教师模型的软标签指导学生模型训练,显著提升代码生成质量。核心创新在于简化了传统蒸馏流程,仅需单向知识传递即可实现性能提升。实验在多个代码生成基准测试中验证了其有效性,尤其在处理复杂逻辑和长代码生成任务时表现优异。该技术的优势在于实现简单、计算成本低,且无需额外数据,为代码生成模型的优化提供了新思路。

官方OpenAI Blog2026/04/01 10:006820
应用GPT-4.1与GPT-5.4 nano模型
实现银行服务流程自动化

Gradient Labs推出基于GPT-4.1和GPT-5.4 nano的AI账户经理,通过自动化处理银行服务流程提升效率与质量。该方案采用模型压缩技术优化性能,实现低延迟高可靠性,已在金融领域落地应用,展现AI在银行服务中的实际价值。

媒体Gino Notes2026/03/28 08:006830
LLM将向智能体式思考演进
Karpathy提出20/80资源分配模式

本期周刊聚焦AI领域中的智能体式思考与资源优化技术,涵盖LLM的自主决策能力、Karpathy的20/80资源分配模式、Anthropic的多智能体架构突破以及Cursor的实时强化学习方法。文章指出,模型推理能力提升后,实际任务执行效率将成为AI竞争的核心。

媒体InfoQ 中文2026/03/25 03:595840
KV Cache用于存储注意力键值对
提升推理效率并减少内存消耗

KV Cache是LLM推理中的关键缓存机制,用于存储注意力键值对以提升生成效率。其核心作用在于减少重复计算,优化内存使用和推理速度。文章详细解析了KV Cache的原理、实现及优化策略,为开发者和研究人员提供了实用的技术参考。

官方Simon Willison2026/03/24 13:097840
流式专家技术实现大模型在低内存设备运行
Qwen3.5-397B-A17B在MacBook Pro成功运行

流式专家技术通过按需加载专家权重,使超大规模语言模型能在内存有限的设备上运行。已实现Qwen3.5-397B-A17B和Kimi K2.5模型在MacBook Pro和iPhone上的运行,处理速度逐步提升。该技术为本地化部署和边缘计算提供了新思路,具有较高的实用价值。

媒体InfoQ 中文2026/03/17 18:026830
Qoder增强代码生成记忆能力
提升复杂任务处理效率

Qoder记忆系统通过增强代码生成中的上下文记忆能力,提升模型的准确性和效率。其核心亮点在于上下文记忆模块的设计与实现,适用于复杂逻辑和多步骤任务。该系统已在实际开发中落地,展现出良好的性能表现。

媒体Import AI2026/03/16 20:306830
AI可自主优化其他LLM,但效果仍逊于人类
Covenant-72B实现分布式训练,性能接近前沿模型

导入AI 449探讨了LLM自主训练、720亿参数分布式训练及计算机视觉的复杂性。PostTrainBench实验显示AI在训练后阶段可提升模型性能,但尚未超越人类。Covenant-72B在多个测试中表现优异,而CHMv2展示了视觉任务的挑战。文章强调了验证基础设施的重要性,并提出AI可能主导全球软件开发的未来。

官方AWS Machine Learning Blog2026/03/14 03:276950
P-EAGLE 并行生成草稿令牌提升推理速度
解决 EAGLE 自回归生成的性能瓶颈

P-EAGLE 是一种通过并行生成草稿令牌提升 LLM 推理速度的新方法,解决了 EAGLE 自回归生成导致的性能瓶颈。它已在 vLLM 中集成,提供预训练模型,支持多种基准测试,并在不同并发度下实现显著加速。

社区Hacker News2026/03/14 01:586870
压缩LLM上下文数据,减少噪声干扰
利用SLM识别关键信息并保留

Context Gateway是一个开源代理工具,用于在LLM处理前压缩编码工具输出的上下文数据,减少噪声影响,提升模型效率和准确率。其核心亮点包括SLM分类器、自动压缩机制和懒加载功能,适用于开发者和研究人员优化长上下文处理。

社区Hacker News2026/03/13 02:527860
IonRouter提供高吞吐、低成本推理服务
专为开源和微调模型优化,支持GH200架构

IonRouter是Cumulus Labs推出的高吞吐、低成本推理API,专为开源和微调模型设计。其核心技术包括针对GH200架构的优化、KV块写入机制和注意力计算优化,显著提升性能。目前支持GPT-OSS-120B和Qwen3.5-122B等模型,按token计费,无空闲费用。尽管延迟略高,但团队正积极改进。

社区Reddit r/LocalLLaMA2026/02/23 20:083750

本文为运行70亿至130亿参数规模AI模型提供了实用的硬件选购指南。文章详细介绍了经济型(RTX 3060 12GB)、中端(RTX 4060 Ti 16GB/二手RTX 3090 24GB)和数据中心级(如A4000 16GB)显卡的性能表现及适用场景。同时强调了系统内存(32GB)在多模型切换中的重要性,并指出用户具体使用场景是决定配置的关键。为AI爱…

社区Reddit r/LocalLLaMA2026/02/21 21:345550

语义缓存通过存储 LLM 推理过程中的中间向量或结果,对相似查询进行复用,显著降低重复计算。实践表明,命中率 30%‑50% 时可将响应时间削减 40% 以上,算力成本下降 20%‑35%。文章阐述了相似度度量、缓存更新、实现要点以及真实业务案例,为开发者提供了可落地的加速方案。

媒体机器之心2026/02/19 20:575840

本文介绍了一种名为 Re-TRAC 的新框架,旨在解决深度搜索智能体在复杂任务中重复低效探索的问题。Re-TRAC 通过“轨迹压缩”和“结构化状态表示”,使智能体能够“记住”并传递过往探索经验,实现渐进式学习。实验表明,Re-TRAC 显著提升了小模型的性能,甚至超越了更大规模的模型,并可作为通用扩展应用于现有模型,为资源受限场景提供了高效解决方案。

社区Reddit r/LocalLLaMA2026/02/15 08:434850

TBG (O)llama Swap + 提示优化器是一款创新的中间件,旨在解决本地 LLM 因上下文过长导致服务中断的问题。它通过动态调整模型上下文大小、支持多模型并行以及智能优化提示内容(包括去除冗余、LLM 辅助总结等策略),显著提升了代理 CLI 的稳定性和持久性。该工具为开发者提供了灵活的 API 接口,允许自定义优化策略,并能通过响应头反馈优化状…