社区Reddit r/LocalLLaMA2026/02/21 18:392660
本文评估了配备 24 GB 统一内存的 Mac mini(仅 M2 Pro 可选)在本地大语言模型推理中的可行性。通过对比 M2 与 M2 Pro 机型、列出关键硬件指标,并给出 CoreML、ollama、llama.cpp 等软件栈的实测推理速度,证明 8‑B 级别的量化模型在 OCR 与文档处理工作流中能够保持 10‑30 tokens/s 的流畅性…
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 1 篇文章。