昨天有幸参加了 Acronis 公司的 Sergey Saburov 的关于 “Agentic Engineering & LLM Security” 的分享。Sergey 深入剖析了现代 LLM 应用面临的安全威胁,并结合 OWASP LLM Top 10 框架提供了大量实战案例。
现结合 OWASP LLM Top 10 v2.0 (2025) 最新官方标准,对分享内容进行了梳理与总结。针对原分享中部分术语的偏差(如 LLM06、LLM10 等)做了必要的修正,并整理了面向 Kubernetes 平台工程师的 Python 代码 PoC(概念验证)与防御脚本,希望能为大家构建安全的 AI 系统提供参考。
LLM01: Prompt Injection (提示注入)
定义:包括直接提示注入(Jailbreaking)和间接提示注入(Indirect Prompt Injection)。间接注入是指攻击者将恶意指令植入 LLM 可能检索或处理的数据源(如网页、邮件、文档)中。