专题:fine-tuning

按该标签聚合的大模型资讯列表(自动分类与标签提取)。13 篇文章。

媒体AINews2026/03/20 13:445620
Composer 2 使用 Kimi K2.5,引发归属与许可争议
二次微调、强化学习提升模型领域适配性

Cursor Composer 2 基于开源模型 Kimi K2.5,因模型归属与许可证问题引发讨论。文章指出,二次微调和强化学习是提升模型适配性的主流手段,强调标注来源、合规许可的重要性。同时,Claude Code 与第三方工具及通讯平台的集成、LangChain 向多智能体系统的演进,展示了 AI 产品差异化的最新趋势。

媒体AWS Machine Learning Blog2026/03/17 23:517950
游戏化AI培训提升参与度
微调LLM实现领域定制

AWS AI League通过游戏化、实践导向的学习模式,帮助组织提升AI技能,特别是LLM微调技术。结合SageMaker等工具,Atos在保险核保领域成功应用,展示了微调模型在准确性和成本效益上的优势。

官方Google Developers Blog2026/03/05 00:335750

FunctionGemma是一款专为函数调用设计的AI模型。本文核心阐述了对其进行微调(Fine-tuning)的必要性与价值。微调不仅能有效解决模型在面对多种工具(如内部工具与通用搜索)时产生的选择歧义,还能使其实现高度专业化,从而将其升级为符合企业特定标准和业务流程的智能代理。文章通过具体案例研究,直观展示了微调如何显著提升FunctionGemma的…

社区Reddit r/LocalLLaMA2026/02/23 22:502760

一项针对30亿至700亿参数大型语言模型内存行为的Beta实验正在进行中。该实验旨在解决模型在微调过程中频繁出现的内存溢出(OOM)、严重内存碎片化以及高负载下异常表现等问题。不同于合成基准测试,此项目将部署来自真实社区的模型在H100 GPU上进行测试,以帮助开发者诊断并找出问题的根源。这并非一个托管服务公告,而是对特定运行时环境的实际工作负载测试。项目…

社区Reddit r/LocalLLaMA2026/02/23 21:177840

TeichAI发布的“Nemotron-Orchestrator”系列模型被揭露并非NVIDIA的真实路由模型,而是基于Qwen3-8B模型,在Claude Opus 4.5推理数据集上微调而成的通用推理助手。NVIDIA的Nemotron-Orchestrator-8B是专用的路由模型,需配合ToolOrchestra系统使用。TeichAI的模型仅提取…

社区Reddit r/LocalLLaMA2026/02/15 09:094630

Incelgpt v1.2 是一款实验性微调的大型语言模型,其核心亮点在于其独特的训练数据来源。该模型在借鉴 GPT-4Chan 的基础上,进一步整合了 Charlie Kirk、Uncyclopedia、4Chan、Looksmaxxing 和 LinkedIn 等多元且常具争议性的文本数据,甚至包含了“地平说”的讨论。此次微调旨在探索融合不同领域数据对…

社区Reddit r/LocalLLaMA2026/02/12 21:5920

本文探讨了从GitHub下载AI技能(Markdown文件)后,在本地化和优化过程中面临的语言挑战。核心问题在于,技能文件中的英文描述和规则常包含高度专业的词汇,用户担心随意修改会改变大型语言模型(LLM)的解释,进而影响技能功能。此外,使用传统翻译工具时,常出现破坏原有参数语法结构的问题。这凸显了在AI技能微调中,确保语义准确性和语法完整性的重要性,为开…

社区Reddit r/LocalLLaMA2026/02/12 21:2820

研究者使用 GRPO 与 LoRA 对开源 120B 模型 gpt‑oss‑120b 进行微调,针对 2025 年特朗普行为的 2,790 条二元预测题进行训练。模型在 682 条留出测试集上取得 Brier Score 0.194、ECE 0.079,分别优于基线模型和 GPT‑5(0.200、0.091),并在带/不带上下文两种情形下均表现更佳。实验细…

社区Reddit r/LocalLLaMA2026/02/08 20:4230

一位学生在三天内完成IBM AI工程课程后,对LLM微调和RAG技术记忆不自信。由于经济原因无法继续付费学习,他急切寻求更深入、更全面的微调和RAG学习资料、综合笔记或学习路线图。他希望将这些技术作为毕业后的职业方向,并指出学校课程未涵盖这些内容,其深度学习知识全靠自学。