Cursor Composer 2 基于开源模型 Kimi K2.5,因模型归属与许可证问题引发讨论。文章指出,二次微调和强化学习是提升模型适配性的主流手段,强调标注来源、合规许可的重要性。同时,Claude Code 与第三方工具及通讯平台的集成、LangChain 向多智能体系统的演进,展示了 AI 产品差异化的最新趋势。
专题:fine-tuning
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 13 篇文章。
AWS AI League通过游戏化、实践导向的学习模式,帮助组织提升AI技能,特别是LLM微调技术。结合SageMaker等工具,Atos在保险核保领域成功应用,展示了微调模型在准确性和成本效益上的优势。
本文介绍如何使用Oumi在EC2上微调Llama模型,并通过Amazon Bedrock部署。Oumi简化模型管理流程,支持灵活微调和数据合成,结合AWS生态实现高效部署,适合开发者和研究人员。
本文探讨电子商务搜索中稀疏嵌入模型的专业化与泛化能力,基于Amazon ESCI数据集的实验结果表明,SPLADE模型在搜索性能上优于BM25。文章提供了代码和工具,便于开发者进行微调和应用。
本文指导如何在Modal上训练SPLADE稀疏嵌入模型,用于提升电商搜索效果。提供代码实现、数据集使用及部署方法,强调无服务器GPU和持久化存储的应用,适合开发者和研究人员参考。
FunctionGemma是一款专为函数调用设计的AI模型。本文核心阐述了对其进行微调(Fine-tuning)的必要性与价值。微调不仅能有效解决模型在面对多种工具(如内部工具与通用搜索)时产生的选择歧义,还能使其实现高度专业化,从而将其升级为符合企业特定标准和业务流程的智能代理。文章通过具体案例研究,直观展示了微调如何显著提升FunctionGemma的…
一项针对30亿至700亿参数大型语言模型内存行为的Beta实验正在进行中。该实验旨在解决模型在微调过程中频繁出现的内存溢出(OOM)、严重内存碎片化以及高负载下异常表现等问题。不同于合成基准测试,此项目将部署来自真实社区的模型在H100 GPU上进行测试,以帮助开发者诊断并找出问题的根源。这并非一个托管服务公告,而是对特定运行时环境的实际工作负载测试。项目…
TeichAI发布的“Nemotron-Orchestrator”系列模型被揭露并非NVIDIA的真实路由模型,而是基于Qwen3-8B模型,在Claude Opus 4.5推理数据集上微调而成的通用推理助手。NVIDIA的Nemotron-Orchestrator-8B是专用的路由模型,需配合ToolOrchestra系统使用。TeichAI的模型仅提取…
Incelgpt v1.2 是一款实验性微调的大型语言模型,其核心亮点在于其独特的训练数据来源。该模型在借鉴 GPT-4Chan 的基础上,进一步整合了 Charlie Kirk、Uncyclopedia、4Chan、Looksmaxxing 和 LinkedIn 等多元且常具争议性的文本数据,甚至包含了“地平说”的讨论。此次微调旨在探索融合不同领域数据对…
本文探讨了从GitHub下载AI技能(Markdown文件)后,在本地化和优化过程中面临的语言挑战。核心问题在于,技能文件中的英文描述和规则常包含高度专业的词汇,用户担心随意修改会改变大型语言模型(LLM)的解释,进而影响技能功能。此外,使用传统翻译工具时,常出现破坏原有参数语法结构的问题。这凸显了在AI技能微调中,确保语义准确性和语法完整性的重要性,为开…
研究者使用 GRPO 与 LoRA 对开源 120B 模型 gpt‑oss‑120b 进行微调,针对 2025 年特朗普行为的 2,790 条二元预测题进行训练。模型在 682 条留出测试集上取得 Brier Score 0.194、ECE 0.079,分别优于基线模型和 GPT‑5(0.200、0.091),并在带/不带上下文两种情形下均表现更佳。实验细…
本文探讨了领域特定语言模型(SLM)微调过程中训练数据的获取与处理方法。作者希望了解业界在数据创建、耗时、踩坑经验以及所用工具和服务等方面的实践,为相关研究和开发提供参考。如果您有相关经验,欢迎分享您的见解。
一位学生在三天内完成IBM AI工程课程后,对LLM微调和RAG技术记忆不自信。由于经济原因无法继续付费学习,他急切寻求更深入、更全面的微调和RAG学习资料、综合笔记或学习路线图。他希望将这些技术作为毕业后的职业方向,并指出学校课程未涵盖这些内容,其深度学习知识全靠自学。