专题:hardware-selection

按该标签聚合的大模型资讯列表(自动分类与标签提取)。2 篇文章。

社区Reddit r/LocalLLaMA2026/02/21 18:392660

本文评估了配备 24 GB 统一内存的 Mac mini(仅 M2 Pro 可选)在本地大语言模型推理中的可行性。通过对比 M2 与 M2 Pro 机型、列出关键硬件指标,并给出 CoreML、ollama、llama.cpp 等软件栈的实测推理速度,证明 8‑B 级别的量化模型在 OCR 与文档处理工作流中能够保持 10‑30 tokens/s 的流畅性…

社区Reddit r/LocalLLaMA2026/02/12 20:5060

作者在 GTX 1080 上使用 Gemma‑3 4B 完成摄像头运动分析,体验良好。面对二手 RTX 3090,思考是否真的需要更大显存和算力。文章指出本地 LLM 适合精准垂直任务,RTX 3090 可支持多模型并行和更低延迟,但若仅运行单一小模型,1080 已足够。并提供了潜在的本地 LLM 应用方向,邀请社区分享经验。