首页/详情

专用AI代理盒:Jetson Orin Nano Super,20W功耗实现67 TOPS,全天候运行OpenClaw

Reddit r/LocalLLaMA2026/02/08 17:48机翻/自动摘要/自动分类
6 阅读

摘要

一位用户分享了其基于Jetson Orin Nano Super构建的专用AI代理盒设置。该设备功耗仅20W,提供67 TOPS算力,全天候运行OpenClaw,主要作为AI网关处理消息、浏览器自动化、监控及工具执行等任务,而非本地LLM推理(依赖云API)。尽管8GB内存不足以进行本地大模型推理,但其低功耗和GPU加速使其成为高效、经济的AI代理解决方案,每年电费仅约20美元。

正文

我将分享我的设置,希望能为那些考虑低功耗、全天候运行AI硬件的人提供参考。

我使用Jetson Orin Nano Super作为专用的OpenClaw代理盒已经几周了。它的主要用途不是本地推理(这部分通过云API完成),而是作为一个专用的、全天候运行的AI网关,负责处理以下任务:

  • Telegram/WhatsApp/Discord 消息处理
  • 浏览器自动化(网页抓取、表单填写、市场管理)
  • 主动监控和警报
  • Cron 定时任务和计划任务
  • 工具执行(git、SSH、文件管理)

与使用Mac Mini或台式PC相比,其主要优势在于总功耗约为20W,这比一个灯泡的功耗还要低。如果全年无休地运行,每年的电费大约是20美元,而迷你PC则需要100美元以上。

配置:

  • Orin Nano Super:67 TOPS(通过JetPack 6.2 + jetson_clocks从40 TOPS提升)
  • 512GB NVMe 固态硬盘
  • 8GB 统一 LPDDR5 内存
  • 碳纤维外壳
  • 运行 Ubuntu 的 ARM64 (aarch64) 架构

对于那些好奇的人来说——不,8GB内存不足以进行有意义的本地推理。但是,如果你将OpenClaw与Claude/GPT API结合使用,Jetson在网关、工具执行和浏览器自动化方面表现出色。GPU加速有助于视觉任务,而TOPS则对设备上的处理非常有用。

更多构建细节请访问:openclawhardware.dev

还有其他人也在Jetson硬件上运行OpenClaw或类似的代理框架吗?

标签