EmDash 是一款全 TypeScript 编写、基于 Astro 与 Cloudflare Workers 的开源 CMS,旨在通过插件沙箱化解决 WordPress 的安全问题。它支持无服务器部署、动态插件加载,并内置 x402 微支付标准,实现按使用量计费。项目已在 GitHub 开源,提供一键部署和在线 Playground 供用户体验。
专题:serverless
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 16 篇文章。
本文展示如何在Amazon Bedrock中使用Claude Tool实现无服务器自定义实体识别,适用于文档信息提取场景。通过集成S3、Lambda和CloudWatch,提供了一种灵活、可扩展且无需训练的解决方案,核心亮点在于简化流程和提升效率。
Databricks推出无服务器NVIDIA GPU,用于AI模型训练和微调。该方案提升计算效率,简化部署流程,降低运营成本,开发者可专注于模型优化。
LiteLLM 服务器现已支持 Vercel 部署,简化了大语言模型的云服务集成。开发者可利用 Vercel 的 Serverless 架构快速上线 AI 应用,提升性能与可用性。此次更新增强了 LiteLLM 在多云环境中的兼容性与灵活性。
LiteLLM Gateway 现支持一键部署至 Vercel,允许开发者通过 Git 推送快速上线统一的 LLM 代理网关,无需管理基础设施。它整合了 OpenAI、Claude、Gemini 等主流模型,通过 Serverless 架构实现低延迟路由,极大简化了 AI API 的部署流程,是快速构建生产级 AI 应用入口的理想选择。
本文指导如何在AWS上构建一个零成本扩展的无服务器RAG管道,支持多种文件格式处理。通过优化成本结构,实现数据摄入一次性付费,运营阶段几乎无费用。适用于构建可搜索的知识库、AI聊天系统等应用。
微软推出 Fireworks AI 服务,集成于 Microsoft Foundry 平台,为企业提供高性能、低延迟的开放模型推理能力。该服务支持无服务器架构和按令牌计费,允许用户直接部署自定义模型权重,覆盖模型评估、部署、治理等全生命周期管理。核心亮点包括企业级安全合规、灵活定价模式及与 Azure 生态的深度整合,助力开发者高效实现AI应用从实验到生产…
作者为 Cloudflare Workers 设计了一种‘使用量断路器’,用于在资源使用接近上限时主动降低负载,避免超额计费。该机制通过实时监控、滞后缓冲、容错处理和去重警报实现,适用于所有有使用量限制的无服务器平台或 API,是 AI 应用部署与运维的重要基础设施优化方案。
Ricoh通过AWS GenAI IDP加速器构建智能文档处理方案,整合生成式AI与无服务器架构,解决医疗领域文档处理扩展难题。方案实现处理能力提升7倍,月均处理超7万份文档,缩短部署周期至数天,工程时间减少90%以上。核心亮点包括多租户架构设计、OCR与AI模型混合应用、置信度评分集成及模块化系统构建,满足HIPAA等严格合规要求。
Amazon Nova Canvas是AWS推出的虚拟试穿解决方案,旨在降低服装退货率。通过AI技术精准拟合产品到人体模型,支持多渠道部署,并结合无服务器架构实现高效处理。文章提供代码示例和部署指南,适合开发者参考。
本文详细阐述了如何利用Amazon Bedrock(集成Claude)、LangGraph和Amazon SageMaker AI上的Managed MLflow,构建一个无服务器对话式AI代理。该方案旨在解决传统客服助手僵化及直接使用LLM缺乏结构的问题,通过图式对话流程、状态管理与工具调用,实现客户订单查询、取消等复杂多轮交互,并提供全面的可观测性。
本文详细介绍了如何利用 Amazon Bedrock AgentCore 和 Knowledge Bases 快速构建一个生产级的智能会议助手。该方案通过 AgentCore Memory 实现对话上下文与长期偏好记忆,AgentCore Identity 提供企业级身份认证,AgentCore Runtime 确保无服务器扩展与会话隔离,并结合 Know…
本文详细介绍了如何利用AWS Cloud Development Kit (CDK) 构建一个智能照片搜索系统。该系统巧妙融合了Amazon Rekognition进行人脸与物体检测、Amazon Neptune图数据库管理复杂关系,以及Amazon Bedrock(搭载Claude 3.5 Sonnet)生成AI驱动的上下文描述。通过无服务器架构,系统实…
Elastic Cloud Serverless服务新增四个Azure区域,基于Search AI Lake架构,集成AI能力,提升数据处理效率与响应速度,适用于实时分析场景。
2025年,Amazon SageMaker AI在模型训练、调优和托管方面取得了显著进展。本文重点介绍了其在可观测性、模型定制和托管功能上的深度升级。通过引入细粒度指标,用户可精准诊断性能瓶颈和资源浪费,并利用CloudWatch实现主动监控与自动响应。无服务器模型定制简化了调优流程,支持RLVR/RLAIF等高级技术,并兼容主流模型。此外,双向流、IP…
Cloudflare 通过 Worker 分片技术减少冷启动频率,提升系统性能。利用一致性哈希环和 Cap’n Proto RPC 实现高效请求路由和跨服务器通信,使冷启动延迟降低10倍,可靠性提升至四位数级别。