专题:webgpu

按该标签聚合的大模型资讯列表(自动分类与标签提取)。4 篇文章。

社区Reddit r/LocalLLaMA2026/02/20 21:495720

作者全新用 WGSL 编写神经网络算子,实现了 BitNet 大语言模型的纯 WebGPU 推理。该方案无需 CUDA,兼容所有支持 WebGPU 的 GPU,在浏览器或 wgpu‑native 环境下均可运行,已在 HuggingFace Spaces 部署演示,代码开源,面向开发者提供了在浏览器端部署 LLM 的可行路径。

社区Reddit r/LocalLLaMA2026/02/09 22:4430

Agentical.net 推出创新的浏览器端 P2P LLM 推理引擎,利用 WebGPU 和 WebRTC 实现零安装、端到端加密的本地化推理。项目支持 DeepSeek R1、Qwen 2.5、Llama-3 等模型,并寻求社区关于本地 RAG 架构(IndexDB vs. 本地服务器)的宝贵反馈与测试,旨在推动 WebGPU 技术在 LLM 领域的…