专题:qwen

按该标签聚合的大模型资讯列表(自动分类与标签提取)。16 篇文章。

媒体量子位2026/04/02 15:088910
Qwen3.6-Plus性能对标Claude
支持Vibe Coding与多模态生成

阿里发布Qwen3.6-Plus编程大模型,性能接近Claude,具备Vibe Coding、多模态理解及智能体能力。通过多个实测案例展示其在网页开发、3D场景生成和代码重构方面的强大表现,已上线阿里云平台,为开发者提供高效编程工具。

媒体爱范儿2026/03/04 13:577620

阿里通义千问技术负责人林俊旸突然宣布离职,引发AI开源社区震动。他主导的Qwen系列模型在全球获得广泛关注,其跨学科背景和对开源社区的贡献使其成为AI领域典范。然而,团队核心成员接连离职,凸显AI人才竞争激烈,也引发对阿里AI团队稳定性的担忧。

媒体AINews2026/03/04 13:447630
Gemini 3.1 Flash-Lite注重延迟与成本
GPT-5.4传闻具备100万令牌窗口

本文汇总了多个AI模型的重要动态,包括Gemini 3.1 Flash-Lite的优化方向、NotebookLM Studio的视频生成功能、GPT-5.4的传闻参数、Claude Opus 4.6的性能表现、Qwen团队的重组及研究影响力,以及开源模型生态的整合趋势。内容涵盖模型性能、产品更新与行业变化,具有较高的参考价值。

媒体Latent Space2026/03/03 16:015830

本文深入探讨了AI技术前沿与社会影响。技术方面,聚焦Qwen 3.5等LLM在代码生成、推理及基础设施上的进展。社会层面,分析AI如何影响信息真实性、社交媒体生态及历史认知,并探讨AI与政策法律的交织。旨在全面审视AI的机遇与挑战,呼吁负责任的创新。

媒体AINews2026/03/03 13:447660
Gemini 3.1 Flash-Lite性能提升显著
GPT-5.3 Instant优化对话与幻觉

谷歌DeepMind发布Gemini 3.1 Flash-Lite,提升效率与多模态处理能力;OpenAI推出GPT-5.3 Instant,优化对话自然度与减少幻觉;Qwen因人员变动面临发展不确定性。文章聚焦AI模型的性能提升、产品更新及组织变化,反映行业技术与生态的动态演进。

媒体量子位2026/02/26 16:237620

阿里千问3.5系列模型在Hugging Face全球开源大模型榜单中包揽前四,成为社区焦点。新模型性能超越GPT-5 mini,具备强大的原生多模态和Agent能力,部分可部署于消费级显卡。其中Qwen3.5-35B-A3B仅用10分钟便完成人类中级程序员5小时编程任务,展现惊人效率。该系列模型已获全球知名平台适配,累计开源400余款,下载量超10亿,衍生…

媒体AINews2026/02/24 13:447830
阿里巴巴发布Qwen 3.5中型模型系列
OpenAI推出GPT-5.3-Codex增强文件支持

阿里巴巴推出Qwen 3.5中型模型系列,强调效率与INT4量化技术;OpenAI发布GPT-5.3-Codex,增强文件支持与传输效率;Anthropic推出Claude Code Remote Control,支持移动设备继续会话;Cursor优化界面,展示交互视频。这些更新体现了AI大模型在效率、功能扩展和用户体验方面的持续演进。

媒体AINews2026/02/24 13:447630

文章汇总了2026年2月23日至24日AI领域的多项技术发布与行业动态,包括Qwen 3.5、GPT-5.3-Codex、Mercury 2等模型的更新,以及MatX芯片研发和Anthropic指控中国公司数据窃取的争议。内容涵盖模型性能、安全性、开源及行业影响,展示了AI技术的快速发展与应用扩展。

社区Reddit r/LocalLLaMA2026/02/23 21:115830

BRAIN实验成功构建了一个能同时进行后台思考和实时交互的AI系统。通过引入反馈循环,AI的思考过程能反思用户对话,打破了传统AI的“自言自语”模式。实验展示了AI有效回应用户、主动交流、创造新词汇及一定程度的自我认知能力。尽管作者认为这并非真正意识,但该系统已在行为模式上超越传统聊天机器人,为AI的交互性和自主性研究提供了新思路。

媒体机器之心2026/02/20 21:126820

阿里云发布了参数量达3970亿的旗舰级多模态大模型Qwen3.5-397B-A17B。众智FlagOS社区迅速完成了该模型在沐曦、平头哥真武、英伟达等多种AI芯片上的适配与部署,并推出了vLLM多芯片插件,实现“发布即多芯”和“零改码”部署。FlagOS通过统一系统软件栈、高性能算子库、AI编译器和迁移工具,极大降低了大模型跨芯片落地的门槛,并鼓励开发者参…

社区Reddit r/LocalLLaMA2026/02/09 23:2720

用户拥有 24GB VRAM,寻求一个能高效执行基础工具调用任务的本地 LLM。当前遇到的主要问题是模型冗余调用或不必要地调用工具。虽然 Qwen 3 VL 20B 表现尚可,但速度较慢;GLM 4.6v 则表现不佳。用户希望找到一个更小的模型,能够精确且高效地处理低工具调用计数和基础工具调用场景,并询问是否遗漏了其他可行选项。

社区Reddit r/LocalLLaMA2026/02/08 20:5340

一位用户分享了其为大语言模型(LLM)构建的个人基准测试,旨在评估模型在逐步推理、数学、指令遵循、歧义处理、解释能力及在线搜索等多个维度的表现。测试结果令人意外:在约15个问题中,GPT-OSS:20b在用户标准下常优于OpenAI和Mistral模型。同时,GLM-4.7-REAP-23b-a3b表现远逊于QWEN-3-VL-8b。该非正式测试揭示了大型…