2025年基于大语言模型(LLM)的系统安全:关键授权实践报
今天分享的是:2025年基于大语言模型(LLM)的系统安全:关键授权实践报
报告共计:42页
《基于大语言模型(LLM)的系统安全:关键授权实践》由云安全联盟大中华区发布,聚焦LLM系统安全与授权实践,为相关人员提供指导。
1. LLM系统安全现状与挑战:随着LLM应用增多,安全设计指导匮乏。LLM的非确定性、缺乏控制和数据平面等特性,给系统安全性和授权机制带来挑战,如提示注入、越狱攻击等,可能导致数据泄露、模型完整性受损等后果。
2. LLM系统组件及安全要点
- 编排器:协调LLM输入输出与服务交互,使用特定工具构建,存在 “糊涂助手” 攻击风险,应在系统设计时考虑防范,且授权检查应在向LLM传递上下文前进行。
- 向量数据库:用于管理高维数据向量,是AI系统基石技术。在RAG模式中,需在数据传递给LLM前进行授权检查,可通过文档级安全等方式实现最小特权原则。
- LLM缓存:可加速查询、节省推理成本,但存在授权问题,如缓存数据被未授权访问、缓存投毒等,需谨慎处理。
- 验证器:是深度防御的重要部分,可防止提示注入等攻击,保护数据安全,但它是第二层保护,需有确定性的主要保护措施。
3. 常见架构设计模式及安全实践
- 检索增强生成(RAG):能让LLM利用外部数据,提升响应质量。使用向量数据库时,要注意授权检查、数据同步等问题;使用关系数据库,需防止SQL注入;调用外部API,要确保身份验证和授权安全。
- LLM系统编写和执行代码:LLM编写代码能力虽强,但存在安全风险。可通过沙箱隔离、限制语言执行能力、恶意代码检测等措施降低风险,执行前最好有人工参与授权。
- 基于LLM的自主智能体:是新兴设计模式,面临诸多挑战。编排器应验证请求,知识库要有访问控制,任务规划需验证,插件最好进行沙箱隔离。
4. 总结与展望:报告强调将LLM排除在授权决策外,持续验证身份权限,采用纵深防御方法提升系统安全性。随着LLM技术发展,需紧跟安全设计动态,分享经验推动领域发展 。
以下为报告节选内容