专题:gpu

按该标签聚合的大模型资讯列表(自动分类与标签提取)。21 篇文章。

社区Hacker News2026/04/02 19:045510
AMD 开源本地 LLM 服务器 Lemonade
GPU + NPU 协同加速推理/训练

AMD 推出的开源本地 LLM 服务器 Lemonade,结合 GPU 与 NPU 实现高效推理和训练。通过统一调度层自动选路,提供 Docker 镜像和一键脚本,降低部署门槛。采用 Apache 2.0 许可证,面向企业和个人开发者,支持多种模型格式,旨在推动本地 AI 应用落地。

官方AWS Machine Learning Blog2026/03/25 04:276820
预留GPU资源用于推理端点
支持时间窗口和实例类型选择

AWS SageMaker AI训练计划允许用户为推理端点预留固定GPU资源,确保在关键评估期或突发场景下有稳定的计算能力。文章介绍了具体操作流程、实例配置方法及管理策略,适用于需要可预测资源的AI模型部署。

媒体InfoQ 中文2026/03/25 02:118740
AI计算成本将大幅下降
AI技术将广泛普及应用

黄仁勋预测AI智能将变得彻底廉价,推动技术普及与产业应用。随着计算成本降低,AI将广泛进入医疗、教育、制造等领域,成为大众可及的工具。英伟达通过硬件和软件生态加速这一进程,带来社会和经济价值。

官方AWS Machine Learning Blog2026/03/17 04:517830
AWS部署百万级NVIDIA GPU
EC2支持新型Blackwell GPU

AWS与NVIDIA在2026年GTC大会上深化AI合作,部署百万级GPU、支持新型EC2实例、优化分布式LLM推理及提升Apache Spark性能。此举旨在帮助企业构建稳定、可扩展且合规的AI生产系统,为开发者和研究人员提供更强大的工具。

媒体Lobsters AI2026/03/11 04:126840
无需调整参数提升模型性能
分析LLM神经架构优化方法

本文介绍了一种无需调整模型参数即可提升大型语言模型在AI排行榜表现的方法。通过深入分析模型的神经架构,作者提出了一种创新的训练或优化策略,展示了如何在不改变权重的情况下实现性能突破。核心亮点在于对模型结构的利用和实验验证。

社区Reddit r/LocalLLaMA2026/02/21 19:124630

本文评估了在约£1,000(≈US$1,300)预算内组装本地大语言模型工作站的可行性,重点分析了 Google Gemini 推荐的 RTX 3090 + Ryzen 5 7600 方案。通过对显卡显存、CPU、主板、内存、电源和散热的细致拆解,给出二手 RTX 3090 与新品 RTX 4070 Ti 两种预算方案,并指出显存是决定可运行模型规模的关键…

社区Reddit r/LocalLLaMA2026/02/20 22:0726110

本文在 10‑15 k UAH(约 250‑380 USD)预算内评估二手显卡,推荐 RTX 3060 12GB 为性价比首选,若能以相近价位入手 RTX 3060 Ti、RTX 2070 Super 或 RTX 3070 则更佳。针对双路 Xeon E5645 + 96 GB DDR3 服务器,分析了 CPU、PCIe 与显存的限制,并列出可在该平台上流…

官方Dwarkesh Patel2026/02/06 02:267630

本文探讨了将GPU部署到太空轨道数据中心的未来愿景,以应对AI计算需求的指数级增长。文章分析了太空能源的巨大优势、Starship火箭降低发射成本的潜力,以及地球基础设施面临的能源和规模瓶颈。尽管面临芯片成本、在轨维修和通信延迟等挑战,Elon Musk认为太空是AI算力发展的必然归宿。若此设想实现,SpaceX将凭借其发射能力在AI竞赛中取得决定性优势。