GitHub 引入 AI 驱动安全检测,扩展代码安全防护范围
The GitHub Blog2026/03/24 00:00机翻/自动摘要/自动分类
5 阅读
内容评分
技术含量
8/10
营销水分
7/10
摘要
GitHub 引入 AI 驱动安全检测,扩展代码安全覆盖范围。该功能与 CodeQL 结合,提升漏洞检测能力,并在拉取请求中集成修复建议。AI 检测在新生态系统中表现突出,Copilot Autofix 提高修复效率,确保安全措施在合并前落实。
正文
随着 AI 技术加速软件开发,现代代码库中使用的编程语言和框架种类也日益增多。为应对这一趋势,GitHub 在其 Code Security 产品中引入了基于 AI 的安全检测功能,以覆盖更多语言和框架,提升应用程序的安全防护能力。该功能与 CodeQL 相辅相成,能够发现传统静态分析难以识别的潜在漏洞,并计划在第二季度初推出公开预览版本。在内部测试中,该系统在 30 天内处理了超过 17 万个安全问题,其中 80% 的开发者反馈良好。AI 检测特别在 Shell/Bash、Dockerfiles、Terraform 配置(HCL)和 PHP 等新生态系统中表现出色。该功能是 GitHub 更广泛检测平台的一部分,涵盖安全、代码质量和代码审查等多个环节。GitHub 将 AI 检测与 Copilot Autofix 结合,使开发者能够在代码审查过程中直接查看并应用修复建议。数据显示,Copilot Autofix 在 2025 年修复了超过 46 万个安全警报,平均修复时间仅为 0.66 小时。此外,GitHub 在合并环节整合了检测、修复和策略执行功能,确保安全措施在代码被批准时得到落实,从而在不延迟开发流程的前提下提升安全性。在 RSAC 大会期间,GitHub 将展示其 AI 驱动的安全检测技术如何在拉取请求中直接增强应用安全。