Birgitta Böckeler 在 Martin Fowler 上提出“工程化方法”,为编码代理提供系统化管理框架。文章定义了将 AI 编码助手视作可挂载组件的思维模型,阐述了从需求、提示工程到执行监控的完整流程,并给出封装、审计、回滚等实践要点,帮助开发者在使用 AI 编码时保持代码质量与可维护性。
专题:prompt-engineering
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 20 篇文章。
Reco利用Amazon Bedrock中的Anthropic Claude,将技术性安全警报自动转化为可操作的自然语言摘要,实现警报理解与响应流程自动化。核心亮点包括:通过提示工程与提示缓存降低延迟75%,集成AWS云原生架构,实测调查时间缩短54%、响应时间缩短63%,显著提升SOC效率与跨团队协作能力。
本文介绍了一种通过模拟大厂管理风格的‘PUA’插件,优化AI在编程任务中的表现。该插件通过压力策略引导AI更积极执行任务,实验显示可提升效率并降低错误率,具有实际应用价值。
Project Genie是Google DeepMind推出的一个AI项目,允许用户通过提示创建虚拟世界。文章介绍了四个技巧,帮助开发者优化提示以生成更丰富的环境。核心亮点在于强调提示工程在创造性AI应用中的重要性,为AI生成内容提供了新思路。
Anthropic 推出 Claude 记忆导出功能,允许用户导出所有历史交互数据。该功能以代码块形式呈现,涵盖用户指令、个人信息、项目细节等。旨在提升用户对 AI 模型数据的掌控与透明度,是 LLM 领域的重要进展。
Bedrock Robotics与AWS合作,利用视觉语言模型(VLM)自动化建筑视频数据标注,以加速自主建筑设备的开发。通过提示工程优化,VLM将工具识别准确率从34%提升至70%,且每小时处理成本仅10美元。此方案有效解决了劳动力短缺导致的数据准备瓶颈,为物理AI系统的大规模部署提供了可扩展、高效的解决方案。
本文聚焦于利用本地模型或提示生成工具来优化大型语言模型(LLM)的提示工程。核心目标是通过提升提示质量,减少对昂贵LLM服务的依赖,从而实现成本节约。作者强调手动提示优化过程的挑战性,并提出引入本地解决方案作为一种可行途径。这种方法旨在增强提示的上下文信息,提高LLM响应的准确性和相关性,最终达到降本增效的目的,为AI应用开发者提供了新的思路。
本文系统评测了 GPT/Codex、Claude Sonnet/Opus 等 AI 编码助手在真实项目中的表现。结果显示,它们在 Python、JavaScript 等脚本语言上能加速小型原型开发,但在 Java、C++ 等强类型语言以及大型系统中仍需大量人工调试。资深开发者倾向于让 AI 负责重复性代码生成,而自行把控架构设计。文章还指出本地化模型检索不…
本文介绍了利用 Claude Code 将任务规划与执行解耦的实现方法。通过提示工程让模型生成结构化的执行计划,随后持久化并交由执行模块逐步完成。文章详细阐述了提示模板、计划校验、错误回滚等关键技术,并提供了完整的 Python 示例代码,帮助读者快速构建可观测、可复用的任务流水线。
一篇新论文(arXiv:2512.14982)证明,重复同一提示可显著提升 LLM 的回答质量。本文梳理了现有的 Prompt Engineering 资源库(OpenAI Cookbook、LangChain、PromptSource、EleutherAI 指南、Awesome Prompt Engineering),并提供了快速克隆、安装及 Pytho…
Claude Code 通过提示缓存技术优化性能,降低延迟和成本。高命中率支持更宽松的速率限制,是其系统架构的核心设计。该技术体现了AI代理在实际应用中的高效优化策略。
文章指出AI写作质量的关键在于素材、模型和审稿能力,而非仅靠提示词。通过类比烹饪,强调内容质量的决定因素。对开发者和研究者具有参考价值,提供更全面的优化视角。
TBG (O)llama Swap + 提示优化器是一款创新的中间件,旨在解决本地 LLM 因上下文过长导致服务中断的问题。它通过动态调整模型上下文大小、支持多模型并行以及智能优化提示内容(包括去除冗余、LLM 辅助总结等策略),显著提升了代理 CLI 的稳定性和持久性。该工具为开发者提供了灵活的 API 接口,允许自定义优化策略,并能通过响应头反馈优化状…
本文探讨了小型语言模型(LLM)在执行代理(Agentic)任务时面临的挑战。作者观察到,目前代理能力主要依赖于200亿参数及以上的大模型。为解决这一问题,作者提出了一种创新思路:开发一个标准的开放标记语言,用于规范LLM提示词中“工具”和“任务”的结构。这种标准化格式有望通过提供统一的训练数据,长期赋能小型模型进行微调和再训练,使其也能胜任复杂的代理任务…
本文探讨了在利用大型语言模型(LLM)进行 RAG(检索增强生成)时,开发者是否过度依赖增大的上下文窗口来容纳信息,而忽视了提升检索质量的重要性。作者指出,即使上下文窗口增大,注意力机制的计算成本依然存在,过多的检索内容可能稀释关键信息,甚至降低模型性能。文章分析了检索过多、块大小不当、提示词冗余等常见问题,并强调了端到端衡量词元数量和优化检索策略(如调整…
一位用户分享了他们使用 Opus 4.6 模型进行的 3k 提示词推理蒸馏实验。他们声称这一过程显著提升了 DASD-4B-Thinking 模型的性能,并邀请社区成员尝试并分享他们的使用体验和模型变化。该实验的详细数据集已在 Hugging Face 上发布,供大家参考和进一步研究。
用户在使用 LM Studio 将扫描的 PDF 文件转换为结构化输出时,遇到了处理速度缓慢的问题。当前流程是将 PDF 转为 JPG 图片,再加入提示词。即使在高性能设备上,效率依然低下。用户分享了相关的 Python 代码,并寻求关于优化此流程的建议,包括 LM Studio 本身或 MLX 等其他工具。
Google推出Nano Banana Pro,支持高分辨率图像生成,增强文本处理与搜索集成,但存在过度拟真和细节差异问题。文章分析其技术亮点与局限,探讨AI图像生成的未来趋势。
Nano Banana是一款文本到图像生成工具,以其出色的提示工程能力著称。文章通过测试展示了其在复杂提示和非文本数据处理上的表现,同时指出其在风格转换和格式支持上的不足。该工具对AI图像生成研究和开发具有参考价值。
本文分享了一位资深LLM用户在专业工作中对生成式AI的使用经验与反思。涵盖LLM在文本分类、标签生成、语法检查等场景的应用,以及提示工程、模型局限性等技术细节。强调LLM虽有潜力,但并非万能,需结合具体任务选择合适工具。