专题:ai-hardware

按该标签聚合的大模型资讯列表(自动分类与标签提取)。14 篇文章。

官方Simon Willison2026/03/24 13:097840
流式专家技术实现大模型在低内存设备运行
Qwen3.5-397B-A17B在MacBook Pro成功运行

流式专家技术通过按需加载专家权重,使超大规模语言模型能在内存有限的设备上运行。已实现Qwen3.5-397B-A17B和Kimi K2.5模型在MacBook Pro和iPhone上的运行,处理速度逐步提升。该技术为本地化部署和边缘计算提供了新思路,具有较高的实用价值。

社区Reddit r/LocalLLaMA2026/02/23 20:083750

本文为运行70亿至130亿参数规模AI模型提供了实用的硬件选购指南。文章详细介绍了经济型(RTX 3060 12GB)、中端(RTX 4060 Ti 16GB/二手RTX 3090 24GB)和数据中心级(如A4000 16GB)显卡的性能表现及适用场景。同时强调了系统内存(32GB)在多模型切换中的重要性,并指出用户具体使用场景是决定配置的关键。为AI爱…

媒体AINews2026/02/21 13:446760
Gemini 3.1 Pro 性能优于 GPT-5.2 和 Claude Opus 4.6
SWE-bench 评估方法存在争议

Gemini 3.1 Pro 在检索和成本上优于 GPT-5.2 和 Claude Opus 4.6,但存在工具和 UI 问题。SWE-bench Verified 评估方法引发争议,Claude Opus 4.6 因令牌限制表现不佳,Sonnet 4.6 虽有性能提升但用户不满增加。

媒体宝玉的分享2026/02/17 08:007850

Jeff Dean 在访谈中讲述了 Gemini 模型的诞生背景,强调其技术突破源于一页备忘录引发的团队合并。他讨论了长上下文处理、AI 硬件优化及每秒处理 10,000 Token 的能力,展示了 Google AI 在模型架构和计算效率上的战略布局。

社区Reddit r/LocalLLaMA2026/02/15 13:171840

一位用户在试用NVIDIA DGX Spark后决定退货,指出其CUDA及软件兼容性存在严重问题。该产品采用独特的sm121架构,而非Blackwell,导致大量AI软件需回退至老旧的sm80代码路径运行,无法享受现代架构优化。NVIDIA客服的解释将AI硬件的Tensor Core阉割归因于RT Cores和DLSS,引发用户对其产品定位混乱的质疑。DG…

社区Reddit r/LocalLLaMA2026/02/15 08:443630

本文聚焦于一个实际的AI部署挑战:如何在2.6万美元预算内,为支持700亿参数模型构建一台具备高推理速度的本地服务器。用户面临硬件选型难题,特别是多GPU系统的组装。文章旨在收集关于Mac Studio或多块RTX 5090等配置的硬件解决方案建议,为AI开发者和部署者提供参考。

社区Reddit r/LocalLLaMA2026/02/11 18:2850

本文介绍了一个为训练大型扩散模型而构建的定制化 AI 硬件平台。该平台集成了 6 块 RTX 3090 GPU,总计 144GB VRAM,并采用了 Epyc CPU 和八通道 DDR4 内存。通过优化驱动和启用 GPU P2P 功能,实现了高效的 GPU 间通信。该平台专为从零开始训练高达 100 亿参数的扩散模型而设计,展示了在 AI 模型训练领域对高…