本文提出一种基于LSTM和STIX数据的太阳耀斑检测系统,通过多通道X射线分析识别异常模式。利用SageMaker AI平台实现模型部署,结合RCF算法进行异常评分,适用于空间天气监测和太阳物理研究,具有较高的技术深度和实际应用价值。
专题:sagemaker
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 14 篇文章。
本文介绍如何利用SageMaker Unified Studio与S3集成加速LLM微调,重点展示在视觉问答任务中的应用。通过实验验证了数据集规模对模型性能的影响,核心亮点在于数据集成流程和模型评估方法。
AWS SageMaker AI训练计划允许用户为推理端点预留固定GPU资源,确保在关键评估期或突发场景下有稳定的计算能力。文章介绍了具体操作流程、实例配置方法及管理策略,适用于需要可预测资源的AI模型部署。
Artificial Genius利用非生成式微调和混合架构解决LLM幻觉问题,适用于金融、医疗等监管行业。通过Amazon SageMaker AI和Nova实现确定性输出,结合LoRA、正则化等技术提升模型可靠性。文章展示了实际应用案例和技术实现细节。
Amazon SageMaker AI端点新增增强型指标,支持实例和容器级别的资源与调用监控,提供可配置的发布频率,帮助用户更精准地优化模型性能和成本。
本文介绍 Amazon Nova Forge SDK 的使用,展示如何通过监督微调和强化微调提升 Stack Overflow 问题分类模型的性能。核心亮点包括全流程训练、评估与部署,以及对模型行为的深入分析。
Nova Forge SDK是亚马逊推出的用于简化企业级LLM定制的开发工具包,整合了SFT、RFT、DPO、LoRA等多种微调方法,统一管理从数据准备到模型部署的全流程。它通过智能默认配置和底层服务抽象,降低技术门槛,支持在SageMaker Training Jobs上高效运行,帮助企业快速构建专有AI模型,避免灾难性遗忘与配置复杂性。
Bark.com与AWS合作构建视频生成解决方案,通过AI技术将内容生产时间从数周缩短至数小时,实现语义和视觉一致性,支持多客户细分的个性化广告生成。
AWS AI League通过游戏化、实践导向的学习模式,帮助组织提升AI技能,特别是LLM微调技术。结合SageMaker等工具,Atos在保险核保领域成功应用,展示了微调模型在准确性和成本效益上的优势。
本文探讨了如何在SageMaker上部署自定义LLM,并通过实现自定义解析器解决与Strands代理的响应格式不兼容问题。核心亮点包括使用`awslabs/ml-container-creator`简化部署、自定义解析器的实现以及`stream()`方法的关键作用。
本文提出Multi-LoRA技术,通过在模型层插入适配器实现多模型共享GPU资源,显著提升效率。适用于MoE模型如GPT-OSS、Qwen3-MoE等,已在vLLM 0.15.0中实现,并在Amazon SageMaker AI和Bedrock上部署。性能提升包括OTPS提高19%和TTFT缩短8%。
本文介绍如何在 Amazon SageMaker 上使用 Ray 和 veRL 训练 CodeFu-7B,一个专为竞争性编程设计的 70 亿参数模型。通过强化学习和分布式训练,该模型在算法推理和代码生成方面表现出色。文章提供了完整的实现流程和资源链接,适合开发者和研究人员参考。
2025年,Amazon SageMaker AI在模型训练、调优和托管方面取得了显著进展。本文重点介绍了其在可观测性、模型定制和托管功能上的深度升级。通过引入细粒度指标,用户可精准诊断性能瓶颈和资源浪费,并利用CloudWatch实现主动监控与自动响应。无服务器模型定制简化了调优流程,支持RLVR/RLAIF等高级技术,并兼容主流模型。此外,双向流、IP…
NVIDIA Nemotron 3 Nano 30B 是一款开源的30亿活跃参数混合专家(MoE)语言模型,现已在 Amazon SageMaker JumpStart 上线,支持一键部署。该模型采用 Transformer-Mamba 架构,在编码、数学与科学推理等任务中表现优异,上下文窗口达百万令牌,兼具高精度与高效率。其完全开放的权重与部署方案,便于…