社区Reddit r/LocalLLaMA2026/02/10 16:1330
本文探讨了领域特定语言模型(SLM)微调过程中训练数据的获取与处理方法。作者希望了解业界在数据创建、耗时、踩坑经验以及所用工具和服务等方面的实践,为相关研究和开发提供参考。如果您有相关经验,欢迎分享您的见解。
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 2 篇文章。
本文探讨了领域特定语言模型(SLM)微调过程中训练数据的获取与处理方法。作者希望了解业界在数据创建、耗时、踩坑经验以及所用工具和服务等方面的实践,为相关研究和开发提供参考。如果您有相关经验,欢迎分享您的见解。
一位用户分享了在英特尔NPU(13 TOPS)上成功运行Qwen3系列小型语言模型的经验。通过更新NPU驱动,性能从1-2 TPS提升至8-31 TPS。作者已将转换后的模型及运行指南上传至Hugging Face,方便其他用户尝试。他还提到OpenVino运行GGUF模型未成功,并期待LLAMA.cpp对NPU支持的PR合并,以简化NPU上的模型运行。