sllm:共享专用 GPU 节点的 LLM 推理平台,低成本无限令牌使用
Hacker News2026/04/04 23:18机翻/自动摘要/自动分类
1 阅读
内容评分
技术含量
6/10
营销水分
5/10
摘要
sllm 是一项面向开发者的共享 GPU 推理服务,允许团队共同使用专用 GPU 节点,以极低费用(小模型月费 5 美元起)调用大模型,如 DeepSeek V3。平台承诺数据不被记录,提供兼容 OpenAI 的 API,用户只需更换 URL 即可使用。该方案通过资源共享降低了大模型的使用成本,提升了隐私安全性。
正文
DeepSeek V3(685 B 参数)完整推理需要 8 块 H100 GPU,月耗资约 1.4 万美元。实际开发中,大多数用户只会请求 15‑25 个 ,成本与需求极不匹配。sllm 通过让开发者组成团队共享同一块专用 GPU 节点,解决了这一痛点。
- 团队共享:用户可使用自己的支付卡预订一个名额,加入团队后即可共享节点资源;在团队满员前无需支付费用。
- 灵活计费:针对小模型的使用费用从每月 5 美元起,显著低于单独租用 GPU 的成本。
- 隐私保障:所有推理过程完全私密,平台不记录任何使用数据。
- OpenAI 兼容 API:基于 vLLM 实现的兼容层,只需更换基础 URL,即可在现有代码中调用 sllm 提供的模型。
- 模型选项:当前已上线多款模型,后续将持续补充。
sllm 的定位是为开发者提供一种“按需共享、低成本、隐私安全”的推理方案,让高算力资源不再是小规模实验的门槛。