Mr. Chatterbox是基于维多利亚时代英国文学训练的对话模型,完全使用19世纪文本,无现代数据。模型在文学语境下表现良好,但实用性不足,作者成功实现本地部署,并公开了训练方法。
专题:huggingface
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 12 篇文章。
本文介绍了一种无需调整模型参数即可提升大型语言模型在AI排行榜表现的方法。通过深入分析模型的神经架构,作者提出了一种创新的训练或优化策略,展示了如何在不改变权重的情况下实现性能突破。核心亮点在于对模型结构的利用和实验验证。
本文是PRX系列第三部分,深入探讨了在24小时内从零开始训练一个文本到图像生成模型的实战路径。文章详细介绍了如何通过优化策略,如利用预训练组件、高效数据处理、混合精度训练以及Hugging Face Accelerate等工具,大幅缩短模型训练周期。它不仅提供了关键的技术指导和代码示例,还强调了在追求速度的同时,如何平衡模型性能与资源消耗。对于希望快速掌握…
GGML 与 llama.cpp 正式加入 Hugging Face,提供统一的模型卡、pipeline 接口和 Python 示例,实现低内存、CPU/GPU 多平台本地推理。此举降低了大语言模型的部署门槛,提升隐私安全和成本效益,并通过 Docker 镜像和社区量化脚本构建完整的本地 AI 生态链。
ggml 与 llama.cpp 正式加入 Hugging Face,意味着本地推理模型可以在统一平台上获取、量化并快速部署。此举将显著降低开发门槛、加速工具链集成,并借助 HF 的 CI/CD 提供长期维护。然而,模型与运行时的集中化也可能削弱独立推理栈的创新空间,社区需在便利与多样性之间保持平衡。
Ggml.ai 与 Hugging Face 正式合作,将 ggml 推理后端深度集成至 Transformers,推出一键量化模型下载、CPU‑SIMD 加速和生态激励计划。用户可直接在本地设备上运行 LLaMA、Mistral 等大模型,兼顾隐私与低成本。技术亮点包括多位量化、无依赖 C++ 实现以及统一 CLI,标志本地 AI 从实验走向落地。
Unsloth 和 Hugging Face Jobs 提供免费 AI 模型训练资源,降低开发门槛。Unsloth 是开源平台,Hugging Face Jobs 集成预训练模型与数据。两者结合,使开发者无需投入大量时间和成本即可启动项目。
本文介绍如何使用Hugging Face和Voyage AI构建基于情绪的电影推荐系统。通过voyage-4-nano嵌入模型、Sentence Transformers和MongoDB Atlas Vector Search,实现从用户情绪到电影推荐的语义匹配。系统能精准理解用户意图,提供更人性化的推荐体验。
MiniMax M2.5的REAP(Reduced Error Approximation Pruning)量化变体模型已在HuggingFace平台发布,为AI开发者提供了新的选择。这些模型包括19%、29%和50% REAP版本,采用SafeTensors格式,易于集成。作者在使用体验中指出,MiniMax M2.5在处理复杂任务时,相比Qwen Co…
京东开源的JoyAI-LLM-Flash项目已在HuggingFace平台上线,旨在提供一个高效、易用的开源大语言模型解决方案。该项目名称中的“Flash”暗示其在推理速度、资源效率或特定优化技术方面可能具有优势。作为HuggingFace上的标准开源发布,它预计包含详细的模型架构、使用指南、安装依赖及性能基准测试。JoyAI-LLM-Flash为开发者和…
一位用户分享了他们使用 Opus 4.6 模型进行的 3k 提示词推理蒸馏实验。他们声称这一过程显著提升了 DASD-4B-Thinking 模型的性能,并邀请社区成员尝试并分享他们的使用体验和模型变化。该实验的详细数据集已在 Hugging Face 上发布,供大家参考和进一步研究。
Transformers.js v4 预览版发布,支持多种 Hugging Face 模型,优化性能与 API,便于 JavaScript/TypeScript 开发者快速集成和使用。