LispE AI工具套件:集成llama.cpp、tiktoken、mlx与PyTorch的高性能实现
Lobsters AI2026/01/30 21:26机翻/自动摘要/自动分类
4 阅读
摘要
LispE是一个开源Lisp语言,通过集成llama.cpp、tiktoken、mlx和PyTorch等库,实现了对AI模型的高效加载与推理。其API简洁,性能优于Python,尤其在处理GGUF模型和MLX指令集时表现突出。LispE支持直接使用C++代码进行高性能计算,为开发者和研究人员提供了更灵活的AI开发工具。
正文
LispE是一个开源的Lisp语言变种,提供了许多其他Lisp语言中少见的功能。作者近期实现了四个新库,以增强其在AI和大型语言模型()领域的应用能力:
- lispe_tiktoken:封装OpenAI的tokenizer,支持直接加载和使用HuggingFace模型及其tokenizer进行推理。
- lispe_gguf:支持llama.cpp格式的GGUF模型,可直接在LispE中运行推理,兼容Ollama和LM-Studio平台。
- lispe_mlx:完整实现Mac OS自带的MLX指令集,提供与Python相当甚至更优的性能。
- lispe_torch:基于PyTorch内部C++库的封装,支持torch::tensor和SentencePiece。
这些库的完整二进制文件仅适用于Mac OS,但Linux用户也可尝试编译。LispE的性能通常优于Python,例如在使用LoRA适配器模型时,其速度比Python快35%。
LispE的独特之处在于其API设计简洁,允许开发者以LispE代码形式直接解决问题,或在需要高性能时使用C++代码。此外,LispE程序被编译为C++实例的树结构,所有对象均继承自Element类,无需离开解释器即可处理库中的对象,从而实现更高效的执行。
目前,lispe_torch仍在开发中,尚未实现功能,而其他三个库已较为完善,为构建更强大的AI模型提供了坚实基础。