火山引擎披露豆包大模型日均 120 万亿 Token 消耗,折算成本达 30‑50 亿元人民币,显示国内 AI 需求爆发。中国 Token 使用量已突破 140 万亿,全球占比 36%,智能体和视频生成是主要驱动。企业需关注模型质量、安全和 Skills,云厂商正因 Token 计费上涨价格。
专题:large-language-model
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 18 篇文章。
BitNet 是一种面向本地 CPU 的 1000 亿参数、1 位精度的 AI 模型。通过极低精度设计和结构优化,它在资源受限设备上实现了高效运行,兼顾性能与计算效率,为边缘计算和嵌入式 AI 提供了新方案。
本期 BestBlogs 周刊聚焦 AI Agent 技术,涵盖 GPT-5.4 模型、工程框架、应用案例及未来展望。内容深入分析 AI Agent 的技术现状与发展方向,帮助读者理解如何在实际项目中有效应用 AI 技术。
GPT 5.4已在AI Gateway平台上线,带来性能优化与功能增强,提升自然语言处理效率。适用于开发者和研究者,便于模型调用与部署。核心亮点包括更强的推理能力与更广泛的适用场景。
OpenAI推出GPT-5.4,专为专业工作设计。该模型具备100万token上下文处理能力,强化了编码、计算机操作和工具搜索功能,旨在提升复杂任务处理效率与资源利用率,为开发者提供更高效的AI解决方案。
GPT-5.3 Instant 是最新的 LLM 版本,针对日常对话进行性能与交互优化。通过稀疏注意力、混合精度训练和多轮上下文压缩,实现更低延迟和更高回答准确度。新模型在信息检索、任务指令和情感交流等场景表现更自然流畅,并提供轻量化 API,便于快速集成。
GPT-5.3 Instant System Card 是一款基于 GPT-5.3 模型的即插即用推理卡片,提供智能问答、文本生成、机器翻译等功能。它通过专用加速硬件实现毫秒级响应,并配套统一 API 与 SDK,帮助企业和开发者快速在本地或云端部署高质量的自然语言服务。
本文呈现了一条交互式时间轴,梳理了 2017‑2026 年间 171 种大型语言模型的发布历程。用户可按开源/闭源过滤、关键词搜索,并查看涉及的 54 家机构信息,为研究者和开发者提供全景式的 LLM 发展参考。
Stripe发布了Minions,一款创新的一次性、端到端AI编码助手。该工具旨在通过自动化代码编写任务,显著提升开发者的工作效率并节省时间。Minions的核心技术基于先进的大语言模型(LLM)和Transformer架构,使其能够精准理解用户需求,并根据简洁的指令生成高质量的代码片段或完整程序。其即插即用的特性极大地简化了开发流程,特别适用于需要快速迭…
本文系统评测了 GPT/Codex、Claude Sonnet/Opus 等 AI 编码助手在真实项目中的表现。结果显示,它们在 Python、JavaScript 等脚本语言上能加速小型原型开发,但在 Java、C++ 等强类型语言以及大型系统中仍需大量人工调试。资深开发者倾向于让 AI 负责重复性代码生成,而自行把控架构设计。文章还指出本地化模型检索不…
团队在“First Proof”数学挑战中首次提交了基于大语言模型的自动证明实验。通过微调 GPT‑4‑Turbo 并使用链式思考提示,模型在 10 条高阶定理中生成了 3 份形式化草稿,其中 1 份在 Coq 中通过基本检查。实验展示了模型在推理速度上的优势,但在逻辑严谨性和跨领域概念掌握上仍有显著不足,后续将引入交互式定理证明器进行闭环优化。
Google 于 2026 年 2 月推出 Gemini 3.1 Pro,基于 Gemini 3 Pro 进行大幅升级:推理能力提升约 2 倍,支持 1 M token 长上下文,增强多模态生成与代码推理,并在保持原有计费的前提下实现约 10 倍成本下降。该模型已在 Gemini 应用、API 与 NotebookLM 中开放,适用于复杂可视化、长文档推理…
MiniMax-M2.5 是一款在代码、搜索和工具使用方面表现优异的开源大模型,采用原生智能体强化学习技术,兼顾性能与成本,适合开发者和研究者使用。
Hugging Face Transformers 库迎来重要更新,新增了对 GLM-5 模型的全面支持。此次更新通过一个拉取请求(PR)详细披露了 GLM-5 的核心架构设计与关键参数配置,旨在促进该模型在开源社区的广泛应用与研究。用户现在可以通过 Transformers 框架便捷地访问和利用 GLM-5 模型,进一步推动大型语言模型技术的发展与创新。…
Moonshot发布Kimi K2.5多模态模型,基于15万亿混合token训练,具备强代理能力和代理群编排功能,适用于开发者和研究者,推动开源AI生态发展。
OpenAI推出GPT-5.2,作为其大模型系列的最新版本,性能和效率显著提升,尤其在复杂任务处理和多语言支持方面表现突出,为开发者和企业提供了更强大的AI工具。
文章将人工智能比喻为‘词袋’,强调其基于训练数据生成回答的机制。指出AI缺乏真正的思维,依赖模式匹配,存在逻辑偏差和信息缺失问题。同时提醒读者避免用人类标准衡量AI,有助于理解其运作原理和潜在风险。
本文指导如何复现GPT-2(124M)模型,涵盖架构、训练流程和关键代码。适合开发者和研究者参考,提供实际操作步骤和优化建议。