首页/详情

太初元碁实现 40+ 大模型即发即适配,国产算力高效落地

量子位2026/02/19 14:11机翻/自动摘要/自动分类
2 阅读

内容评分

技术含量
6/10
营销水分
6/10

摘要

太初元碁在两天内完成对 40+ 主流大模型的即发即适配,提供 SDAA Copilot、Teco‑Triton、SDAA C、PCX 指令集和 Teco‑vLLM 等工具链,实现算子自动生成、跨平台兼容和零成本迁移。公司强调集群互联、推理性价比和生态兼容是国产 AI 芯片的三大核心竞争力,力图在大模型“周更”时代抢占算力话语权。

正文

2026 年 2 月 18 日,国产 AI 芯片企业太初(无锡)电子科技有限公司(太初元碁)宣布完成对智谱 GLM‑5.0、阿里千问 Qwen3.5‑397B‑A17B 等主流的深度适配。截至目前,已实现对包括 DeepSeek、Qwen、GLM、Intern‑S1、文心一言等在内的 40+ 大语言模型的“一键上线、即发即用”。

适配范围覆盖:

  • 大语言模型(DeepSeek、Qwen、GLM、Seed‑OSS、文心一言等)
  • 向量检索模型(BAAI Embedding / Reranker)
  • 多模态理解模型(Qwen‑VL、LLaVA)
  • 多模态生成模型(Stable‑Diffusion、FLUX、Wan 系列)
  • OCR 模型(MinerU、DeepSeek‑OCR、Paddle‑OCR)
  • 科学多模态模型(Intern‑S1)

太初元碁在软硬件协同上推出了 SDAA 软件栈的阶梯式开发工具链,针对不同技术水平的开发者提供多种算子开发方式:

  • SDAA Copilot:基于的算子自动生成,小时级生成 3000 条算子代码并完成单元测试。
  • Teco‑Triton:兼容 Triton 的 Python 抽象语法树,后端直接跑在太初加速卡上。
  • SDAA C:支持标准 C/C++ 语法的高性能算子开发。
  • PCX 虚拟指令集:在 SDAA C 程序中嵌入硬件专属指令,实现关键路径的细粒度优化。
  • Teco‑vLLM:通过插件机制将太初自研加速卡无缝接入 vLLM 框架,保持原生推理接口,用户无需改动模型代码或启动方式即可迁移。

太初元碁首席产品官洪源指出,国产 AI 芯片的竞争焦点已从单卡性能转向集群互联、推理性价比和生态兼容。训练需要数万张算力卡的高速互联,推理成本(每 )将决定产品生死;因此,降低 CUDA 迁移门槛、提供高效算子工具链是关键。

进入“周更”时代的背景下,国产算力企业必须快速扩展生态、实现落地,否则将被市场淘汰。太初元碁的“一键适配+软硬件协同”方案正是对这一挑战的直接回应。

标签