专题:mlx

按该标签聚合的大模型资讯列表(自动分类与标签提取)。4 篇文章。

官方Simon Willison2026/03/19 07:566840
苹果技术实现本地运行大模型
量化优化降低内存占用

Dan Woods利用苹果LLM in a Flash技术,在本地运行Qwen 397B模型,通过量化和专家混合架构优化内存使用。实验显示,4位量化可实现每秒4.36个令牌的推理速度,且输出质量与4位精度无明显差异。该成果对本地大模型部署具有重要参考价值。

社区Reddit r/LocalLLaMA2026/02/15 13:193840

Qwen3-ASR模型现已通过MLX平台在Apple Silicon上实现原生运行,为M系列GPU带来了高性能的自动语音识别能力。该重实现提供了0.6B和1.7B两种模型规模,支持52种语言,并具备词级时间戳、4位/8位量化、流式解码等高级特性。性能测试显示,其在M4 Pro上识别速度快,错误率低,且内存占用高效。这一进展为Apple生态系统中的AI应用开…

媒体Lobsters AI2026/01/30 21:2640

LispE是一个开源Lisp语言,通过集成llama.cpp、tiktoken、mlx和PyTorch等库,实现了对AI模型的高效加载与推理。其API简洁,性能优于Python,尤其在处理GGUF模型和MLX指令集时表现突出。LispE支持直接使用C++代码进行高性能计算,为开发者和研究人员提供了更灵活的AI开发工具。