媒体AWS Machine Learning Blog2026/03/10 23:425830
• Oumi简化LLM微调流程
• 模型存储于Amazon S3
本文介绍如何使用Oumi在EC2上微调Llama模型,并通过Amazon Bedrock部署。Oumi简化模型管理流程,支持灵活微调和数据合成,结合AWS生态实现高效部署,适合开发者和研究人员。
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 4 篇文章。
本文介绍如何使用Oumi在EC2上微调Llama模型,并通过Amazon Bedrock部署。Oumi简化模型管理流程,支持灵活微调和数据合成,结合AWS生态实现高效部署,适合开发者和研究人员。
本文聚焦于将稀疏嵌入微调模型应用于电子商务搜索的实践,整合了训练、评估、负样本挖掘和跨领域实验等关键步骤。SPLADE模型在亚马逊ESCI数据集上表现优于BM25,提升28%,展示了从研究到产品化的完整流程。
文章介绍使用Tunix在Google TPUs上微调FunctionGemma模型的方法,通过LoRA算法提升精度并优化资源利用,适合关注模型训练效率的开发者。
微软发布PazaBench,首个针对低资源非洲语言的ASR基准,涵盖39种语言和52个模型。Paza系列模型基于Phi-4、mms-1b-all和Whisper,针对肯尼亚六种语言进行微调,提升转录质量与跨语言泛化能力。通过实地测试和社区反馈,推动AI在未充分代表语言中的应用。