媒体AWS Machine Learning Blog2026/03/24 00:346830
• 非生成式微调减少幻觉
• 混合架构结合概率与确定性
Artificial Genius利用非生成式微调和混合架构解决LLM幻觉问题,适用于金融、医疗等监管行业。通过Amazon SageMaker AI和Nova实现确定性输出,结合LoRA、正则化等技术提升模型可靠性。文章展示了实际应用案例和技术实现细节。
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 6 篇文章。
Artificial Genius利用非生成式微调和混合架构解决LLM幻觉问题,适用于金融、医疗等监管行业。通过Amazon SageMaker AI和Nova实现确定性输出,结合LoRA、正则化等技术提升模型可靠性。文章展示了实际应用案例和技术实现细节。
Nova Forge SDK是亚马逊推出的用于简化企业级LLM定制的开发工具包,整合了SFT、RFT、DPO、LoRA等多种微调方法,统一管理从数据准备到模型部署的全流程。它通过智能默认配置和底层服务抽象,降低技术门槛,支持在SageMaker Training Jobs上高效运行,帮助企业快速构建专有AI模型,避免灾难性遗忘与配置复杂性。
文章介绍使用Tunix在Google TPUs上微调FunctionGemma模型的方法,通过LoRA算法提升精度并优化资源利用,适合关注模型训练效率的开发者。
本文探讨了在RunPod上使用ComfyUI进行LoRA训练时的模板选择与工作流程稳定性问题,为新手提供实用建议和最佳实践,帮助避免常见错误。
研究者使用 GRPO 与 LoRA 对开源 120B 模型 gpt‑oss‑120b 进行微调,针对 2025 年特朗普行为的 2,790 条二元预测题进行训练。模型在 682 条留出测试集上取得 Brier Score 0.194、ECE 0.079,分别优于基线模型和 GPT‑5(0.200、0.091),并在带/不带上下文两种情形下均表现更佳。实验细…
本文整理了2024年上半年值得关注的AI研究论文,重点聚焦于LLM领域,包括专家混合模型、训练方法和数据集等技术内容,为开发者和研究人员提供有价值的参考。