NVIDIA Nemotron 3 Nano 30B 登陆 SageMaker JumpStart:开源MoE大模型,30亿参数高效推理新标杆
AWS Machine Learning Blog2026/02/12 03:38机翻/自动摘要/自动分类
3 阅读
摘要
NVIDIA Nemotron 3 Nano 30B 是一款开源的30亿活跃参数混合专家(MoE)语言模型,现已在 Amazon SageMaker JumpStart 上线,支持一键部署。该模型采用 Transformer-Mamba 架构,在编码、数学与科学推理等任务中表现优异,上下文窗口达百万令牌,兼具高精度与高效率。其完全开放的权重与部署方案,便于企业定制与安全集成,是轻量级高性能AI应用的理想选择。
正文
NVIDIA 宣布其开源()Nemotron 3 Nano 30B 已正式上线 Amazon SageMaker JumpStart 模型目录,开发者可一键部署,无需管理底层基础设施。该模型拥有30亿活跃参数,支持高达100万令牌的超长上下文窗口,采用创新的 -Mamba 混合架构,通过精准控制令牌生成实现高精度推理,在编码、数学计算、科学推理与复杂指令执行等任务中表现卓越,于 LiveCodeBench、GPQA Diamond、AIME 2025、BFCL 和 IFBench 等权威基准测试中位居同参数规模模型前列。
Nemotron 3 Nano 完全开源,提供开放权重、训练数据集与部署指南,满足企业对隐私与安全的严苛要求。用户可通过 SageMaker Studio 搜索 “NVIDIA Nemotron 3 Nano 30B” 并点击“部署”快速启动服务,亦可通过 AWS CLI 或 SageMaker SDK 发送推理请求,命令示例:nvidia/nemotron-3-nano。
更多技术细节、使用示例与区域可用性信息,请参阅 NVIDIA 官方 GitHub 仓库及 AWS 文档。欢迎开发者体验并反馈,共同推动高效AI模型的落地应用。