专题:model-selection

按该标签聚合的大模型资讯列表(自动分类与标签提取)。3 篇文章。

社区Reddit r/LocalLLaMA2026/02/09 22:3940

本文介绍了一个用户构建本地化私人 RAG 助手的详细方案,涵盖数据摄取、LLM 增强、记忆数据库和大脑层。用户面临模型选择(4B/8B/12B LLM)和硬件升级(考虑 Apple Silicon 及独立 GPU)的困惑,预算在 2000-2500 美元。文章详细列出了当前配置、未来用例设想以及用户在模型性能和硬件成本之间的权衡,旨在寻求专业建议以优化其本…

社区Reddit r/LocalLLaMA2026/02/08 19:4560

一位用户分享了他在RTX 3060 12GB显卡上,通过llama.cpp运行本地大模型的经验。他目前使用Magnum-v4 9B、Qwen2.5-Coder-7B和Qwen3-8B,分别处理通用知识、编程和复杂推理任务。作者对现有配置满意,并向社区征集在2026年初,其他用户在类似12GB显存受限硬件上使用的模型,特别是编程、通用聊天和多功能性方面的最佳…