专题:model-jailbreak

按该标签聚合的大模型资讯列表(自动分类与标签提取)。1 篇文章。

社区Reddit r/LocalLLaMA2026/02/09 18:5230

一位研究人员声称成功越狱了52个最新AI模型中的43个,并指出GPT-5在第二级安全防护中被攻破。该研究者发布了详细的越狱报告,并表示将持续更新此基准测试,纳入更多模型进行评估。这一发现揭示了当前AI模型在安全性和鲁棒性方面存在的潜在漏洞,对AI伦理和安全防护提出了新的挑战,值得业界关注和深入探讨。