该工具利用OSV.dev API,通过pyproject.toml或requirements.txt文件查询Python依赖项的漏洞。核心亮点在于集成开源漏洞数据库,支持CORS,便于开发者在项目中直接使用,提升代码安全和供应链透明度。
专题:python
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 20 篇文章。
文章分析了LiteLLM在PyPI上被恶意篡改的事件,统计了被攻击版本的下载次数,并指出大量依赖包未指定版本号,导致安全风险扩散。事件涉及软件包管理、供应链安全和Python生态,对开发者具有重要参考价值。
本文介绍如何使用MCP协议构建个人财务助手,通过分离LLM的叙述功能与Python的数据计算,确保输出的准确性和可靠性。系统具备可交付性,且可通过扩展功能快速升级。
本文介绍 Snapshots 的 AutoCDC 工具,通过 Python 实现,仅需四行代码即可自动化变更数据捕获流程。该工具简化了传统 CDC 管道的复杂性,提升了数据处理效率,适用于实时数据同步场景。
LiteLLM v1.82.8 包被植入恶意文件 `litellm_init.pth`,通过 Base64 编码隐藏,安装即可触发凭证窃取。该漏洞可能源于对 Trivy 工具的利用,攻击者借此窃取用户敏感信息。PyPI 已将该包隔离,事件影响范围有限但危害严重。
OpenAI计划收购Astral以增强Codex技术,推动下一代Python开发工具的诞生。此举旨在整合代码生成能力,提升开发效率,具有较强的技术应用价值。
本文讲解了AI智能体数据管道的构建方法,涵盖数据采集、处理、存储与传输。通过实际案例展示了Python实现的高效数据流处理方案,强调了数据质量与实时性的重要性,为开发者提供可复用的架构设计思路。
Python 3.15版本中,CPython JIT在macOS AArch64和x86_64 Linux平台分别实现11-12%和5-6%的性能提升。JIT技术的优化显著提高了Python的执行效率,使其更接近编译语言的表现,对开发者和研究者具有重要参考价值。
本文介绍如何使用Claude Code和Codex进行数据处理与分析,涵盖数据探索、清洗、可视化及抓取。通过Python和SQLite实现,结合Datasette和Leaflet库,展示了AI编程代理在数据新闻中的实际应用,具有较高的实践参考价值。
本文探讨Python是否能原生支持分布式计算,分析了GIL的限制及可能的解决方案,指出当前依赖第三方库,但未来有提升空间。核心亮点在于对Python语言特性的深入剖析与技术趋势的预测。
本文指导如何用Python和朴素贝叶斯构建垃圾邮件检测器,涵盖数据预处理、特征提取、模型训练与评估。核心亮点在于提供完整流程和代码示例,适合初学者掌握文本分类技术。
本文指导如何用Python和Docker构建MCP服务器并连接Claude Code,涵盖协议背景、实现细节、安全问题及部署实践,适合开发者构建可复用的AI工具接口。
本文分享了作者使用AI代理进行编程的实践,涵盖代码生成、优化及复杂项目开发。通过Python和Rust的实验,AI代理展示了其在提升效率和性能方面的潜力,对开发者具有实际参考价值。
本课程系统讲解从Python编程到AI智能代理开发的完整路径,涵盖数据处理、API构建及LLMs集成等核心技术,适合开发者深入学习AI应用。
本教程讲解Python在AI代理开发中的核心概念与技巧,涵盖架构设计、状态管理与决策逻辑。适用于构建智能聊天机器人、自动化系统等应用,强调模块化与可扩展性。
Kon 是一个极简的本地编程助手,核心代码不足千令牌,仓库仅有 112 文件。它提供 pip 安装方式,适合需要快速定制和深入理解代码的开发者。相较于 opencode、pi‑mono 等大型项目,Kon 更轻量、易读,虽功能不够全面,但在本地运行 GLM‑4.7‑flash‑q4 模型时表现可玩。
该开源AI代理工具将系统流程详细记录至SQLite数据库,以节点形式标注层级、操作及文件,并以语义关系连接,支持多种导出。它不仅用于安全审计,更可辅助功能构思和设计文档生成,统一存储创意、文档与审计结果。这为团队提供了可查询的系统结构图,极大简化新成员上手和系统理解。
这篇帖子以“温和的提议”为题,建议对开发者在其项目中引入的每个 Python 库征收 1% 的收入税。此提议旨在引发关于开源软件价值、开发者贡献及潜在经济激励模式的深入讨论。尽管其可行性存疑,但它为重新审视开源生态系统的可持续发展和资金支持机制提供了一个独特视角,促使行业思考如何更好地回馈和支持开源社区。
该论文通过实验分析AI辅助对技能学习的影响,发现使用AI的人效率未提升但测试成绩较差。作者认为AI可能降低单个任务的学习深度,但通过增加任务量可弥补。研究指出AI工具如Claude Code和Copilot可能影响工程师技能发展,但未否定其整体效率价值。
KV缓存是LLM推理中提升效率的关键技术,通过存储键值向量减少重复计算。文章从概念和代码实现角度解析其原理,并展示了在不同模型和硬件上的性能对比。核心亮点包括代码示例、优化方法和实验结果。