首页/详情

sllm:共享专用 GPU 节点的 LLM 推理平台,低成本无限令牌使用

Hacker News2026/04/04 23:18机翻/自动摘要/自动分类
1 阅读

内容评分

技术含量
6/10
营销水分
5/10

摘要

sllm 是一项面向开发者的共享 GPU 推理服务,允许团队共同使用专用 GPU 节点,以极低费用(小模型月费 5 美元起)调用大模型,如 DeepSeek V3。平台承诺数据不被记录,提供兼容 OpenAI 的 API,用户只需更换 URL 即可使用。该方案通过资源共享降低了大模型的使用成本,提升了隐私安全性。

正文

DeepSeek V3(685 B 参数)完整推理需要 8 块 H100 GPU,月耗资约 1.4 万美元。实际开发中,大多数用户只会请求 15‑25 个 ,成本与需求极不匹配。sllm 通过让开发者组成团队共享同一块专用 GPU 节点,解决了这一痛点。

  • 团队共享:用户可使用自己的支付卡预订一个名额,加入团队后即可共享节点资源;在团队满员前无需支付费用。
  • 灵活计费:针对小模型的使用费用从每月 5 美元起,显著低于单独租用 GPU 的成本。
  • 隐私保障:所有推理过程完全私密,平台不记录任何使用数据。
  • OpenAI 兼容 API:基于 vLLM 实现的兼容层,只需更换基础 URL,即可在现有代码中调用 sllm 提供的模型。
  • 模型选项:当前已上线多款模型,后续将持续补充。

sllm 的定位是为开发者提供一种“按需共享、低成本、隐私安全”的推理方案,让高算力资源不再是小规模实验的门槛。

标签