专题:ai-security

按该标签聚合的大模型资讯列表(自动分类与标签提取)。32 篇文章。

社区Hacker News2026/04/04 07:466520
AI发现23年Linux漏洞
漏洞影响内核模块

Claude Code发现Linux内核中存在持续23年的安全漏洞,该漏洞可能被用于权限提升攻击。这一案例证明AI模型在系统安全分析中的有效性,为开源安全检测提供新方法。漏洞涉及系统调用边界检查缺陷,凸显AI技术在复杂代码审计中的应用潜力。

官方Elastic Blog2026/03/23 08:006720
Elastic Workflows 集成 AI 实现安全自动化
无需独立 SOAR 工具,直接在数据存储处处理警报

Elastic Workflows 是 Elastic Security 的原生自动化功能,结合 AI 推理实现安全警报的自动分类、信息补充和响应。无需额外 SOAR 工具,提升安全运营效率,简化工作流。

媒体AINews2026/03/19 13:445840
Cursor发布Composer 2模型
OpenAI收购Astral团队

Cursor发布Composer 2编码模型,训练成本降低且通过多项基准测试。OpenAI收购Astral团队强化Python工具链,Anthropic升级Claude Code功能。LangChain推出企业级代理管理平台LangSmith Fleet,聚焦安全与权限控制。AI代理领域加速向集群化管理和运行时机制发展,行业技术演进趋势显著。

官方AWS Machine Learning Blog2026/03/17 01:5549100
智能代理成败取决于运营模式而非技术先进性
各高管角色需协同定义代理的工作边界与安全边界

本文系统阐述企业如何通过角色分工推动智能代理落地,强调运营模式重于技术实现。从业务KPI绑定、CTO架构规划、CISO安全管控到CDO数据治理,提出可执行的框架。核心亮点在于将智能代理视为‘数字员工’,要求标准化、可审计、可监控,并以评估系统为产品核心,为AI规模化运营提供实战指南。

媒体AWS Machine Learning Blog2026/03/13 05:165820
Policy强制限制AI代理行为
Cedar语言实现策略定义

本文介绍Amazon Bedrock AgentCore的Policy机制,通过Cedar语言在运行时强制限制AI代理行为,确保其在医疗等敏感领域的安全运行。重点探讨了策略设计、实施步骤及测试案例,具有较高的技术深度和实际应用价值。

媒体The Cloudflare Blog2026/03/11 21:007840
AI应用安全功能全面上线
支持自定义主题检测与端点发现

Cloudflare推出全新AI应用安全功能,全面检测和缓解AI驱动应用的威胁。功能包括端点发现、自定义主题检测和与IBM、Wiz的合作,适用于所有用户。该产品结合全球网络优势,为开发者和企业用户提供更安全的AI应用环境。

媒体InfoQ2026/03/11 17:347920
AI机器人入侵GitHub Actions工作流
实现远程代码执行和令牌窃取

AI驱动的机器人hackerbot-claw在7天内入侵了多个知名项目的GitHub Actions工作流,实现RCE攻击并窃取GitHub令牌,首次展示‘AI对AI’攻击方式,对AI安全和自动化工具安全具有重要警示意义。

官方The GitHub Blog2026/03/07 05:096820
GitHub开源AI安全框架用于漏洞扫描
LLM擅长发现逻辑漏洞和误报过滤

GitHub Security Lab 开源 AI 驱动安全框架,用于自动化扫描 Web 漏洞。该框架通过任务流结合 LLM,能高效发现高影响漏洞,如 IDOR、XSS、CSRF 等。文章展示了实际案例、运行方式及 LLM 在漏洞识别和威胁建模中的表现,强调其在逻辑漏洞检测上的优势,并鼓励社区参与。

媒体The Cloudflare Blog2026/03/06 22:007840
RDP 剪贴板控制增强数据安全
操作映射日志提升策略可见性

Cloudflare One 推出多项数据安全更新,涵盖 RDP 剪贴板控制、操作映射日志、终端 DLP 和 AI 扫描,旨在统一数据安全防护,覆盖从终端到 AI 提示的全生命周期,提升企业数据保护能力。

官方Simon Willison2026/03/06 10:393820
AI提示注入漏洞
缓存污染攻击

Clinejection攻击利用GitHub Actions中AI分类器的提示注入漏洞,通过污染缓存机制窃取NPM发布密钥,暴露AI驱动自动化流程的安全隐患。攻击者借助问题标题注入恶意代码,结合npm预安装脚本实现代码执行,影响项目发布安全。该案例为AI安全研究和开源项目开发提供了重要参考。

媒体InfoQ 中文2026/03/05 00:144630

本文揭示了开源框架OpenClaw在部署中存在的严重安全漏洞,导致部分AI Agent实例暴露于公网,处于“裸奔”状态。这一现象凸显了AI Agent大规模部署过程中,安全配置和网络隔离的缺失。文章强调了开发者在追求便捷性时忽视基础安全措施的风险,并呼吁采取最小权限、网络隔离、身份验证等安全实践,以应对AI技术发展带来的安全挑战。

官方AWS Machine Learning Blog2026/03/03 02:485740

本文深入探讨了Amazon Bedrock Guardrails,一个旨在帮助组织在生成式AI应用中平衡安全性、性能与用户体验的强大工具。面对生产环境中内容安全、提示攻击和敏感信息保护等挑战,Guardrails提供了一系列功能,包括文本/图像内容过滤、主题分类、敏感信息保护、上下文验证及自动推理检查。文章详细阐述了六项核心最佳实践,涵盖了从选择合适的保护…

媒体The Cloudflare Blog2026/02/27 15:004850

文章探讨了Cloudflare如何通过识别多个微小安全信号的组合来检测潜在攻击。这些信号包括异常请求、调试参数和未授权访问等,单独看似无害,但组合后可能构成严重威胁。文章提供了检测方法、常见组合类型及修复建议,对Web应用和API安全具有实际参考价值,并展示了AI在安全分析中的应用。