专题:hardware

按该标签聚合的大模型资讯列表(自动分类与标签提取)。6 篇文章。

媒体爱范儿2026/03/17 10:247630
AI赋能充电头实现固件升级
支持新协议与设备适配

OTW Agent 是 CANDYSIGN 推出的 AI 充电头升级设备,通过云服务实现固件更新,支持新协议和设备适配,提升充电效率与稳定性。用户反馈显示其显著改善了多款设备的充电表现,且使用门槛低,提供终身服务。

社区Reddit r/LocalLLaMA2026/02/22 18:226520

微软近日重磅发布了一款全新的自研AI推理芯片,旨在显著提升其Azure云平台在处理大型语言模型(LLM)及其他复杂AI推理任务时的性能与效率。此举是微软在AI硬件领域的重要战略布局,旨在减少对第三方GPU的依赖,并为客户提供更具成本效益和性能优势的AI算力。该芯片的核心亮点在于其针对AI推理工作负载的深度优化,包括高吞吐量、低延迟和卓越的能效比。它将与Az…

社区Reddit r/LocalLLaMA2026/02/21 19:124630

本文评估了在约£1,000(≈US$1,300)预算内组装本地大语言模型工作站的可行性,重点分析了 Google Gemini 推荐的 RTX 3090 + Ryzen 5 7600 方案。通过对显卡显存、CPU、主板、内存、电源和散热的细致拆解,给出二手 RTX 3090 与新品 RTX 4070 Ti 两种预算方案,并指出显存是决定可运行模型规模的关键…

媒体量子位2026/02/21 14:318730

Taalas 以 24 人团队推出 HC1 芯片,将 Llama 3.1‑8B 硬编码进掩模 ROM,实现每秒 17000 token 推理,功耗仅 250 W,成本与能效均显著优于现有 GPU/ASIC。技术核心是结构化 ASIC 与模型硬连线,已展示多模型扩展方案,预计 2024 年将陆续发布二代产品。

媒体Sean Goedecke2026/02/15 08:006840

本文对比了Anthropic和OpenAI的LLM快速推理技术,分析其速度提升机制与模型能力差异。Anthropic通过小批量处理提升速度,而OpenAI借助Cerebras芯片实现更高加速。尽管快速推理在某些场景有优势,但模型的错误率可能影响用户体验。文章揭示了AI实验室在硬件与算法上的创新方向。