专题:cpu-inference

按该标签聚合的大模型资讯列表(自动分类与标签提取)。3 篇文章。

社区Reddit r/LocalLLaMA2026/02/23 22:034730

开源项目TinyTeapot发布,这是一个参数量为7700万的上下文感知LLM。其主要亮点是能在普通CPU上实现约40 token/秒的处理速度,显著降低了部署AI模型的硬件门槛。TinyTeapot的轻量化设计使其适用于资源受限环境和边缘设备,为开发者提供了便捷的AI应用部署方案。该模型已开源,鼓励社区进行进一步的创新和优化。

社区Reddit r/LocalLLaMA2026/02/08 19:2840

一位用户发帖询问,是否有社区成员成功在 CPU 上运行过 GLM-OCR 模型。他计划将其与 llama.cpp 结合使用,但发现目前缺乏 GLM-OCR 的 GGUF 格式模型文件,导致集成困难。该用户正在寻求解决方案或替代建议,以在 CPU 环境下部署 GLM-OCR 并实现与 llama.cpp 的兼容性。这反映了在特定硬件和软件生态中部署AI模型时…