专题:small-llms

按该标签聚合的大模型资讯列表(自动分类与标签提取)。1 篇文章。

社区Reddit r/LocalLLaMA2026/02/08 18:3630

作者提出一种小型本地大模型的新思路:鉴于硬件限制,模型不应追求极致智能,而应专注于可靠理解用户意图并准确调用工具。他建议训练 0.6B-1.5B 模型,使其在保持基本对话能力的同时,能从有限工具集中选择正确工具及参数。训练重点是“自然语言到正确工具使用”,而非提升原始智能。作者好奇这种意图驱动的训练是否可行、是否有实践,以及潜在的失败模式。