专题:prompt-engineering

按该标签聚合的大模型资讯列表(自动分类与标签提取)。20 篇文章。

媒体Martin Fowler2026/04/02 21:104520
提出“工程化方法”概念,系统化管理编码代理
提供完整的需求‑提示‑执行‑验证闭环流程

Birgitta Böckeler 在 Martin Fowler 上提出“工程化方法”,为编码代理提供系统化管理框架。文章定义了将 AI 编码助手视作可挂载组件的思维模型,阐述了从需求、提示工程到执行监控的完整流程,并给出封装、审计、回滚等实践要点,帮助开发者在使用 AI 编码时保持代码质量与可维护性。

媒体AWS Machine Learning Blog2026/03/24 00:465920
使用Anthropic Claude将JSON警报转为自然语言摘要
通过提示缓存降低AI推理延迟75%

Reco利用Amazon Bedrock中的Anthropic Claude,将技术性安全警报自动转化为可操作的自然语言摘要,实现警报理解与响应流程自动化。核心亮点包括:通过提示工程与提示缓存降低延迟75%,集成AWS云原生架构,实测调查时间缩短54%、响应时间缩短63%,显著提升SOC效率与跨团队协作能力。

媒体AWS Machine Learning Blog2026/02/24 07:205660

Bedrock Robotics与AWS合作,利用视觉语言模型(VLM)自动化建筑视频数据标注,以加速自主建筑设备的开发。通过提示工程优化,VLM将工具识别准确率从34%提升至70%,且每小时处理成本仅10美元。此方案有效解决了劳动力短缺导致的数据准备瓶颈,为物理AI系统的大规模部署提供了可扩展、高效的解决方案。

社区Reddit r/LocalLLaMA2026/02/23 22:014550

本文聚焦于利用本地模型或提示生成工具来优化大型语言模型(LLM)的提示工程。核心目标是通过提升提示质量,减少对昂贵LLM服务的依赖,从而实现成本节约。作者强调手动提示优化过程的挑战性,并提出引入本地解决方案作为一种可行途径。这种方法旨在增强提示的上下文信息,提高LLM响应的准确性和相关性,最终达到降本增效的目的,为AI应用开发者提供了新的思路。

社区Reddit r/LocalLLaMA2026/02/22 17:582570

本文系统评测了 GPT/Codex、Claude Sonnet/Opus 等 AI 编码助手在真实项目中的表现。结果显示,它们在 Python、JavaScript 等脚本语言上能加速小型原型开发,但在 Java、C++ 等强类型语言以及大型系统中仍需大量人工调试。资深开发者倾向于让 AI 负责重复性代码生成,而自行把控架构设计。文章还指出本地化模型检索不…

社区Hacker News2026/02/22 08:295650

本文介绍了利用 Claude Code 将任务规划与执行解耦的实现方法。通过提示工程让模型生成结构化的执行计划,随后持久化并交由执行模块逐步完成。文章详细阐述了提示模板、计划校验、错误回滚等关键技术,并提供了完整的 Python 示例代码,帮助读者快速构建可观测、可复用的任务流水线。

社区Reddit r/LocalLLaMA2026/02/15 08:434850

TBG (O)llama Swap + 提示优化器是一款创新的中间件,旨在解决本地 LLM 因上下文过长导致服务中断的问题。它通过动态调整模型上下文大小、支持多模型并行以及智能优化提示内容(包括去除冗余、LLM 辅助总结等策略),显著提升了代理 CLI 的稳定性和持久性。该工具为开发者提供了灵活的 API 接口,允许自定义优化策略,并能通过响应头反馈优化状…

社区Reddit r/LocalLLaMA2026/02/12 20:4960

本文探讨了小型语言模型(LLM)在执行代理(Agentic)任务时面临的挑战。作者观察到,目前代理能力主要依赖于200亿参数及以上的大模型。为解决这一问题,作者提出了一种创新思路:开发一个标准的开放标记语言,用于规范LLM提示词中“工具”和“任务”的结构。这种标准化格式有望通过提供统一的训练数据,长期赋能小型模型进行微调和再训练,使其也能胜任复杂的代理任务…

社区Reddit r/LocalLLaMA2026/02/12 17:3340

本文探讨了在利用大型语言模型(LLM)进行 RAG(检索增强生成)时,开发者是否过度依赖增大的上下文窗口来容纳信息,而忽视了提升检索质量的重要性。作者指出,即使上下文窗口增大,注意力机制的计算成本依然存在,过多的检索内容可能稀释关键信息,甚至降低模型性能。文章分析了检索过多、块大小不当、提示词冗余等常见问题,并强调了端到端衡量词元数量和优化检索策略(如调整…

社区Reddit r/LocalLLaMA2026/02/10 16:0840

一位用户分享了他们使用 Opus 4.6 模型进行的 3k 提示词推理蒸馏实验。他们声称这一过程显著提升了 DASD-4B-Thinking 模型的性能,并邀请社区成员尝试并分享他们的使用体验和模型变化。该实验的详细数据集已在 Hugging Face 上发布,供大家参考和进一步研究。

社区Reddit r/LocalLLaMA2026/02/09 23:1840

用户在使用 LM Studio 将扫描的 PDF 文件转换为结构化输出时,遇到了处理速度缓慢的问题。当前流程是将 PDF 转为 JPG 图片,再加入提示词。即使在高性能设备上,效率依然低下。用户分享了相关的 Python 代码,并寻求关于优化此流程的建议,包括 LM Studio 本身或 MLX 等其他工具。