一位17岁高中生以第一作者身份发表关于Kimi大模型长上下文优化的论文,声称在128K上下文下提升推理准确率12%。论文未开源代码,仅含伪代码,作者隶属AI初创公司,引发学术规范与年轻天才神话的争议。核心亮点是罕见的少年作者身份,但技术深度与透明度存疑,更多是行业营销事件。
专题:long-context
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 6 篇文章。
Claude 推出 Opus 4.6 和 Sonnet 4.6,全面支持 100 万上下文长度,且不额外收费。相较之下,OpenAI 和 Gemini 在特定情况下会收取更高费用。这一更新提升了长文本处理能力,对开发者和用户具有重要参考价值。
大型音频语言模型(LALM)目前主要聚焦于语音转文字,虽在转录准确率上取得突破,却缺乏对语义、情感和上下文的深度理解。文章指出模型在倾听能力上的局限,并提出跨模态预训练和层次化记忆两大技术路线作为突破口,呼吁从单纯转录向真正的听懂与交互转变。
Ovis 系列多模态大模型(MLLM)发布最新版本 Ovis2.6-30B-A3B。该模型在 Ovis2.5 的基础上,将核心 LLM 骨干网络升级为稀疏混合专家(MoE)架构,旨在以更低的推理成本提供卓越的多模态性能。Ovis2.6-30B-A3B 在长上下文和高分辨率内容理解、基于主动图像分析的视觉推理以及信息密集型文档理解方面均有显著提升。据称,在 …
NVIDIA Nemotron 3 Nano 30B 是一款开源的30亿活跃参数混合专家(MoE)语言模型,现已在 Amazon SageMaker JumpStart 上线,支持一键部署。该模型采用 Transformer-Mamba 架构,在编码、数学与科学推理等任务中表现优异,上下文窗口达百万令牌,兼具高精度与高效率。其完全开放的权重与部署方案,便于…
Nanbeige LLM Lab 发布了开源3B模型Nanbeige4.1-3B,旨在验证小型通用模型在推理、偏好对齐和Agent行为方面的潜力。该模型在LiveCodeBench-Pro、IMO-Answer-Bench等复杂推理任务上表现出色,并通过单次前向传播实现连贯推理。在偏好对齐方面,Nanbeige4.1-3B在Arena-Hard-v2和Mu…