专题:sparse-moe

按该标签聚合的大模型资讯列表(自动分类与标签提取)。1 篇文章。

媒体AINews2026/02/16 13:446830

阿里发布Qwen3.5-397B-A17B,作为Open-Opus系列最小模型,支持201种语言和256K令牌上下文,采用稀疏MoE和线性注意力架构,稀疏度4.3%,推理效率高,可在苹果Silicon上运行。API版本Qwen3.5-Plus支持100万上下文长度,并集成搜索与代码解释功能,呼应国内大模型研发趋势。