首页/详情

GLM-OCR 在 CPU 上运行

Reddit r/LocalLLaMA2026/02/08 19:28机翻/自动摘要/自动分类
4 阅读

摘要

一位用户发帖询问,是否有社区成员成功在 CPU 上运行过 GLM-OCR 模型。他计划将其与 llama.cpp 结合使用,但发现目前缺乏 GLM-OCR 的 GGUF 格式模型文件,导致集成困难。该用户正在寻求解决方案或替代建议,以在 CPU 环境下部署 GLM-OCR 并实现与 llama.cpp 的兼容性。这反映了在特定硬件和软件生态中部署AI模型时,模型格式兼容性是一个常见挑战。

正文

大家好,我想知道有没有人成功在 CPU 上运行过 GLM-OCR?我本来想将它与 llama.cpp 结合使用,但似乎没有找到任何 GGUF 格式的模型文件。大家有什么想法或建议吗?

标签