专题:agi-risk

按该标签聚合的大模型资讯列表(自动分类与标签提取)。1 篇文章。

官方OpenAI News2026/02/19 18:004540

OpenAI 斥资 750 万美元设立“The Alignment Project”,专门资助独立的 AI 对齐研究,以帮助确保未来 AGI 的目标与人类价值观保持一致。该基金通过公开征集和严格评审,支持学术与非营利团队的创新方案,体现 OpenAI 对 AI 安全与伦理的高度重视,并推动全球协作应对 AGI 风险。