设计类API:为您的应用程序赋予强大的设计能力
为什么 API 管理对于保护大语言模型的访问至关重要
生成式人工智能为提高效率带来了巨大的机会,因此企业自然而然地正在迅速寻找将人工智能融入其运营的方法。一种突出的选择是使用大型语言模型 (LLM),而使用 LLM 的更方便的方法之一是通过 API。
开发人员可以通过具有免费套餐的 API 访问流行的大型语言模型,例如来自 Google 或 OpenAI 的大语言模型,从而使他们能够将自然语言处理 (NLP) 集成到他们的应用程序中。这推动了生成式人工智能在各种应用程序和平台上的采用。
API 有助于供应商 LLM 和使用它们的企业之间传输重要数据。然而,这带来了需要注意的严重安全漏洞。如果实施不当,API 和 LLM 可能会无意中授予未经授权的访问权限、暴露信息并容易遭受其他安全攻击。
LLM的兴起
人工智能(AI)长期以来一直是计算机科学的兴趣所在,尽管在特定应用领域之外并不可行。从历史上看,人工智能仅限于在严格控制的环境中执行小众任务,缺乏执行无关任务的多功能性。生成模型的引入改变了这一局面,为当今生成式人工智能领域盛行的复杂 LLM 铺平了道路。
大语言模型借助预训练模型和完善的数据存储库不断得到改进。这些增强型大语言模型现已向公众开放,使更广泛的受众能够使用这种变革性技术。大语言模型可以生成多种内容格式,包括文本、设计、音频和视频,这些格式可以嵌入其他应用程序以执行数据分析和信息检索等特定任务。
因此,企业纷纷利用生成式人工智能的力量来实现流程自动化、增强客户服务、优化研发并提高整体运营效率。
虽然大语言模型的潜力是显而易见的,但它们与业务运营的整合同时暴露了安全框架中的漏洞,并改变了数字化转型的目标。为了应对访问大语言模型所固有的复杂的数字安全挑战,组织需要强大的API 管理和安全框架来预先解决和缓解这些问题。
API与LLM安全风险之间的关系
支持生成式人工智能输出的大语言模型需要访问数据。与敏感公司数据相关的大语言模型会带来额外的安全风险,但可以通过使用 API 和 API 管理来降低这些风险。
开放全球应用程序安全项目 (OWASP) 是一个专注于软件安全的国际组织。他们最近概述了与大语言模型相关的 10 个重大安全风险,其中包括:
- 及时注射
- 不安全的输出处理
- 训练数据中毒
- 拒绝服务模型
- 供应链漏洞
- 敏感信息披露
- 不安全的插件设计
- 代理过多
- 过度依赖
- 模型盗窃
其中一些漏洞可以通过 API 管理资源来解决或监控。使用 API 管理可以预防的常见安全风险是提示注入。这种安全风险会影响从提示中学习的 LLM,如 Bard 或 Chat GPT。限制 LLM 访问并在明确定义的范围内增强其功能的 API 可以解决这个问题。如果没有这些 API,恶意用户就可以操纵 LLM 执行未经授权的操作。这些行为包括暴露敏感信息或充当不知情的代理。
为了先发制人地防范这种攻击和其他攻击,企业可以制定 API 令牌来限制 LLM 对外部命令或部分数据库的访问。这样做可以降低操纵输入或无意中暴露敏感信息的风险。组织可以通过 API 管理和 API 安全功能来降低 LLM 安全风险。
这些安全威胁的广泛性还表明,仅依靠 LLM 供应商来确保安全可能会导致不良后果。组织需要强大的 API 管理和 API 安全策略来降低连接和使用 LLM 的风险。
与 LLM 相关的 API 失败示例
2023 年 12 月 4 日,Lasso Security 研究团队成功发现并暴露了 GitHub 和 Hugging Face 存储库中的 1500 多个 API 令牌。这一安全漏洞导致未经授权访问了属于谷歌、Meta 和微软等主要实体的 723 个账户。
考虑到研究人员怀有恶意的潜在后果,这一事件的严重性就显而易见了。有了这种访问权限,恶意行为者就可以篡改训练集,损害全球数百万用户的 LLM 输出。
Lasso 安全研究员 Bar Lanyado 表示,他“对我们可以公开的代币数量和类型感到非常不知所措。我们能够访问几乎所有顶级科技公司的代币,并完全控制其中一些代币。”
API 安全失败的另一个例子发生在 2023 年,当时Microsoft AI 研究人员无意中向惊人的 38 TB 敏感信息授予了不受限制的权限,其中包括内部消息、密钥等。这一失误发生在 LLM 培训集的开发过程中,该培训集无意中以错误的权限发布到 GitHub。
这些事件是 API 相关安全措施中严重疏忽的鲜明例子,引发了人们对导致此类失误的机制的相关质疑,特别是在知名科技企业内部。类似的事件是如何发生的?它们是如何发生在一些世界上最大和最好的科技公司身上的?
API 管理工具如何提高安全性
一些人工智能供应商通过 LLM 提供全面的安全解决方案。其中一个例子是 Salesforce 的 Einstein,其信任层为用户提供了一个安全网。直接从谷歌云或开放人工智能(Open AI)上构建的、具有多方面功能的二级人工智能应用程序的开发人员可能会无意中将功能优先于安全考虑。认识到这一点后,希望快速集成新人工智能衍生功能的企业就面临着如何在不影响安全性和管理新 API 的前提下实施人工智能的问题。
值得庆幸的是,有一些解决方案可以提供适当的 API 保护、治理和管理,帮助企业解决这一问题。借助 MuleSoft 的 Anypoint API Manager 和 Anypoint Flex Gateway,IT 部门可以配置和应用安全策略,监控和管理进出 LLM 的信息流,保护敏感的公司数据和个人信息。
MuleSoft 的 API 管理功能进一步增强了企业的能力,可执行量身定制的身份验证策略、实施速率限制,并利用 Anypoint Flex Gateway 新推出的策略开发工具包 (PDK),简化适应性安全策略的创建。这一全面的工具集有助于用户身份验证、敏感信息识别、发现以前未检测到的已部署 API,以及加强对数字操作和 LLM 利用的控制。
原文链接:Why API Management Is Critical to Securing Access to Large Language Models