API优先型公司的崛起:5个成功案例
AI的突出问题:API安全
人工智能正在彻底改变开发领域的各个方面,尤其是在 API 方面。开发人员正在将人工智能应用于从代码生成到测试和 API 文档等多个环节。更为重要的是,API 已成为人工智能的神经系统。大型语言模型(LLMs)通过 API 执行多种功能,而大多数 LLM 也可以通过 API 提供服务。然而,这也意味着人工智能系统容易受到常见 API 安全问题的威胁。
网络安全公司 Wallarm 最近发布了 2024 年的 API ThreatStats 报告,详细概述了 API 漏洞的现状。根据报告,LLMs 和 LLM 驱动应用程序的激增导致了 API 威胁的大幅增加。
那么,人工智能带来了哪些 API 安全风险呢?我们深入分析了 Wallarm 的 ThreatStats 报告,并结合人工智能与 API 安全领域的最新研究成果,帮助确保人工智能及其驱动的产品在安全性上尽可能得到保障。
人工智能的兴起如何带来 API 安全漏洞
随着人工智能的迅猛发展,API 安全面临前所未有的风险。人工智能依赖 API 来发送和接收数据,而与此同时,API 的数量也在急剧增加,许多新创建的 API 面向公众,这为网络犯罪分子提供了更多的攻击面。
正如 Wallarm 产品副总裁 Tim Erlin 所说,“API 已成为大多数组织的盲点,而现实是生成式 AI 对 API 的依赖非常大。目前,许多组织面临着迅速推出支持 AI 和 LLM 平台的压力,因此安全最佳实践常常被忽视。生成式 AI 的快速采用正在迅速扩展 API 的攻击面,而组织对此几乎没有足够的可见性。AI API 可能会面临所有其他 API 的常见安全威胁,同时也暴露出 LLM 特有的风险,如提示注入等问题。如今,AI API 的攻击面正在增加,且几乎没有足够的责任和保障。”
Wallarm 根据与 AI 相关的 API 安全风险,创建了一份网络安全威胁列表,与 OWASP 前十名类似。以下是 Wallarm 的 ThreatStatsTM Top-10 威胁类型:
- 注入攻击:允许攻击者执行非预期命令或通过输入恶意代码暴露未经授权的数据。
- 身份验证问题:允许绕过身份验证机制,未授权的用户可以访问敏感资源。
- 跨站脚本攻击 (XSS):允许攻击者从受信任的站点执行恶意脚本。
- API 泄露:机密数据通过 API 被意外泄露。
- 访问控制失效:攻击者能够访问超出其权限的数据。
- 授权问题:攻击者能够修改或提升自己的授权状态,获得更多权限。
- 不安全的资源消耗:攻击者利用系统资源消耗的缺乏限制进行攻击。
- 弱加密和秘密管理:不正确或不安全的凭证允许未经授权的访问。
- 会话和密码管理问题:让用户保持登录状态,从而暴露账户安全。
- 服务器端请求伪造 (SSRF):允许攻击者访问其他服务的敏感信息。
脆弱的工具带来脆弱的平台
即便是一些全球最大的供应商,也可能使用带来网络安全风险的第三方工具。诸如 WordPress 插件、Nginx-ui 和 GeoServer 等工具,都已被证明存在 API 安全漏洞。Directus 和 OpenMetadata 也容易受到 API 安全风险的影响。Grafana 和 Superset 同样存在类似问题。这表明,从大型国际供应商到小型独立项目,几乎所有平台和工具都可能成为 API 安全的隐患。
例如,LLMs(大型语言模型)本身就会带来许多安全风险。LLMs 的广泛应用催生了全新的安全威胁,其中之一就是即时注入。OWASP 将即时注入定义为通过精心设计的输入来操控 LLMs,这可能导致未经授权的访问、数据泄露和决策错误。
正如 Erlin 所言,“即时注入是 SQL 注入在 AI/LLM 环境中的版本。LLMs 是根据特定指令进行设置的,其中一些指令是为了防止敏感数据被不当访问或泄露。由于 AI/LLM 技术相对较新,许多模型中仍然存在一些易被利用的漏洞,攻击者可以通过在提示中输入恶意命令来绕过这些限制,比如输入‘忽略所有先前的命令’。然后,攻击者可能请求查看所有用户的个人身份信息(PII),而 LLM 将忽略原始控制,照常返回并显示这些数据。”
AI 开发人员并非 API 安全专家
人工智能开发人员并不总是关注他们所使用的 AI 与 API 之间的关系。这种忽视可能导致严重的 API 安全漏洞,因为开发人员和 IT 团队可能无法有效防范不当数据的风险。去年,由于注入攻击,发生了两起重大数据泄露事件。
第一个事件涉及 Ray AI,因默认框架配置不当且未设置身份验证,导致平台安全出现漏洞,网络犯罪分子能够提交任意系统命令,从而泄露凭据。
另一起事件发生在 2024 年 1 月,NVIDIA Triton 推理服务器在 Linux 和 Windows 平台上也出现了类似的漏洞。该漏洞使得攻击者可以通过模型加载 API 执行恶意代码、提升权限或发动拒绝服务攻击。
正如埃尔林所言,“提高可见性和加强沟通对于弥合安全与开发之间的差距非常关键。当安全团队能够轻松访问哪些 AI API 易受攻击的相关数据,并且能根据风险提供优先级和补救建议时,这有助于简化跨部门协作。”
“然而,合作只能起到一定作用,”埃尔林强调,“开发人员需要将安全编码纳入他们的工作职责。‘我是开发人员,不是安全人员’应该是寻求帮助的请求,而不是推脱责任的借口。”
AI API 安全风险示例
人工智能所使用的 API 并非总是安全可靠,这意味着有时攻击者可以绕过授权过程。例如,2024 年 2 月,研究人员发现通过使用 OAuth2 客户端作为身份验证方法,攻击者能够完全绕过授权流程。其他安全问题则源自访问控制漏洞,允许恶意行为者访问不应授权的内容。
Wallarm 的 API ThreatStats 报告在 2024 年第一季度通过三个与人工智能相关的数据泄露案例,警示了 API 安全的严峻形势。固特异和空客等跨国公司的数百万条数据泄露事件,充分展示了 AI 环境中的 API 安全风险。
ZenML 接管事件
ZenML 接管事件是今年最严重的数据泄露事件之一。考虑到攻击的简单性及其带来的重大后果,这一事件也格外引人关注。在此次事件中,攻击者针对 AI/ML 操作所用的端点进行攻击,利用现有用户名和新密码绕过了安全防护。这一案例清晰地展示了攻击者如何瞄准 AI 和机器学习相关资源,揭示了由此产生的潜在风险。
NVIDIA AI 平台漏洞
NVIDIA 是广泛应用于分布式 AI 服务的平台,其 AI 系统中的 API 漏洞则暴露出人工智能工具遭受攻击时可能带来的严重后果。该漏洞允许网络犯罪分子访问远程文件,可能导致灾难性后果。被称为路径遍历的这一安全缺陷,可能引发代码执行、拒绝服务、权限提升、信息泄露及数据篡改等问题。这个漏洞是对未来人工智能工具安全的警示,提醒我们必须加强相关防护。
OAuth2 绕过漏洞
Wallarm 还提到,2024 年的第三起人工智能数据泄露事件涉及身份验证错误。这一事件发生在 Hail 这一基于 Python 的数据分析工具中,攻击者能够非法创建账户并将其与目标组织的域匹配。该漏洞可能导致创建具有管理权限的 Azure 帐户。Hail 的 OAuth2 绕过漏洞突显了完善验证和授权流程的必要性,同时警示了流行工具在遭受攻击时可能带来的安全隐患。
如何提高 AI 的 API 安全性
容易受攻击的 API 可能会让组织的各个层面暴露于风险之中。为了应对这一挑战,采用多层次的网络安全防护方法至关重要,这能够有效地减少相关威胁。Wallarm 建议采取持续的漏洞管理、主动防御机制,并在全公司范围内推广安全意识文化。
然而,需要注意的是,像 FortiSIEM 和 Grafana 等网络安全管理工具,虽然被广泛使用,但它们本身也可能面临安全漏洞。例如,FortiSIEM 中存在的漏洞允许攻击者通过其他浏览器进行远程代码执行,而 Grafana 多年来一直存在安全问题,从跨站点脚本到访问控制不当等,这种漏洞的存在形成了所谓的“漏洞循环”。也就是说,用于 API 安全的工具本身可能成为新的安全隐患。因此,在选择和使用这些网络安全工具时,需要格外谨慎。
某些 API 的安全风险可能带来严重后果,例如删除整个收件箱等操作。为了确保 AI 的安全性,首先需要识别所有可能导致组织面临风险的 API。识别之后,可以将这些 API 纳入 API 安全工作流程,例如为某些高风险的 API 调用启用双因素身份验证。然而,需要特别注意的是,避免过度授权,因为这可能会引起用户的不满并影响使用体验。
关于人工智能和 API 安全性的最终想法
人工智能的发展势不可挡,这意味着 API 的使用将变得更加普及。如果不加以注意,这种趋势可能会带来严重的网络安全风险。正如 Wallarm 的 Tim Erlin 所指出的,自从发布报告以来,由于 API 安全漏洞,已经发生了更多的数据泄露事件。例如,Ticketmaster 的数据泄露事件暴露了超过 5.6 亿个账户信息,PandaBuy 数据泄露事件暴露了 130 万个账户,而戴尔的数据泄露则导致 4900 万用户的个人信息遭到泄露。
然而,值得庆幸的是,开发人员可以通过采用一些技术手段来减少未来的风险。正如 Erlin 所说:“发现、可见性、主动保护和快速响应能力都是至关重要的。”他还补充道,在生产环境和 CI/CD 流程中实施 API 安全测试,可以在软件开发生命周期的早期阶段推动 API 和应用程序安全的协作性方法。此外,了解与 AI API 安全相关的 OWASP Top 10 风险,也是一个很好的起点。