所有文章 > AI驱动 > Nebius AI Studio只需 3 个步骤即可使用免费的 DeepSeek R1 和 V3 API
Nebius AI Studio只需 3 个步骤即可使用免费的 DeepSeek R1 和 V3 API

Nebius AI Studio只需 3 个步骤即可使用免费的 DeepSeek R1 和 V3 API

DeepSeek R1是一款全新的开源人工智能模型,它以卓越的性能震撼了整个科技界。与成本高昂的专有模型不同,其开源特性使得众多供应商能够托管和分发该模型,这不仅赋予了用户极大的灵活性,还带来了显著的成本节省。与OpenAI的o1模型相比,R1的训练和开发成本要低得多,而且在数学、编码和推理任务方面的表现优于o1。

以下是模型的评估分数和对比图表:

这两款模型均在许可度较高的MIT许可证下发布,这意味着任何人都可以在自己的成本范围内对其进行微调或托管以供本地使用。

现在,让我们看看如何在Bolt.DIY和Cursor中使用该模型。

第一步:从Nebius AI Studio获取免费API密钥

尽管有许多DeepSeek供应商可供选择,甚至官方的DeepSeek平台也提供自己的API,但本文将向您展示如何访问最具性价比的解决方案之一:Nebius AI Studio。我们将通过OpenRouter使用Nebius模型,以便您能够在不重新配置现有Bolt.DIY或Cursor设置的情况下无缝集成DeepSeek API。

  1. 在Nebius AI Studio上注册/登录
  2. 从此处获取您的API密钥,并将其安全保存以便后续使用。

Nebius AI Studio提供了广泛的开源模型,使您能够灵活地探索和使用不同模型以应对各种项目。注册后,您将获得1美元的免费积分以开始使用。

此外,他们目前正在进行一项限时促销活动——您可以使用特殊的优惠券代码领取额外25美元的免费积分。请访问他们的官方X(Twitter)页面获取最新代码:- https://x.com/nebiusaistudio

换句话说,您可以在Bolt.DIY或Cursor设置中免费使用Deepseek R1和V3

您可以在OpenRouter中找到Nebius AI作为DeepSeek模型的供应商,与其他主要供应商相比,它是最实惠的选择之一。但不用担心,由于我们使用的是免费积分,因此无需支付任何费用!

第二步:在OpenRouter中配置DeepSeek R1/V3

OpenRouter是一个API网关,它简化了对各种开源人工智能模型的访问。它提供了一个统一的接口,使您能够轻松地在多个供应商之间切换,而无需重新配置设置。

  1. 在OpenRouter上注册/登录
  2. 在搜索框中输入DeepSeek R1或V3
  3. 点击您偏好的模型,查看有关供应商、成本等详细信息的页面。 👇

您只需转到Nebius供应商处,将鼠标悬停在“密钥图标”上,并点击链接以从OpenRouter获取API密钥。👇

您将被重定向至集成页面,在该页面上,您会看到所有供应商均标记为“未配置”。找到Nebius,点击编辑图标

您将看到一个弹出窗口,如下图所示 👇,提示您编辑Nebius密钥。粘贴您在第一步中从Nebius AI Studio创建并保存的Nebius API密钥,然后点击保存。现在,您已准备好通过OpenRouter使用Nebius模型!

最后一步 – 获取您的OpenRouter API密钥

转到OpenRouter仪表板,将鼠标悬停在🏠图标上,点击密钥。创建一个新的API密钥,并将其安全保存,您将在CursorBolt.DIY中使用它。

第三步:在Bolt.DIY中使用免费的DeepSeek

Bolt.DIY是Bolt.new(前身为oTToDev)的官方开源版本,它允许您为每个提示选择LLM。目前,您可以使用来自OpenAI、Anthropic、Ollama、OpenRouter、Gemini、LMStudio、Mistral、xAI等供应商的模型,并且可以轻松扩展以支持任何与Vercel AI SDK或OpenRouter兼容的模型。

您可以将Bolt.DIY本地运行在您的设备上,并轻松生成人工智能驱动的网络应用程序。

  • 查看设置说明以开始 – 链接
  • 现在,按照以下步骤在本地运行Bolt.DIY,您可以直接运行或使用Docker

在本地机器上设置好Bolt.DIY并使用IDE安装好依赖项后,运行:

npm run dev

现在,Bolt.DIY将在http://localhost:5173/开始运行,打开您的浏览器,您将看到如下内容:

您将看到一个选项,可以选择LLM供应商、选择LLM模型以及设置API密钥,之后Bolt.DIY就可以用于构建人工智能驱动的应用程序。在这里,我们将使用我们之前通过Nebius和OpenRouter配置的免费DeepSeek模型。

在您的IDE中打开Bolt.DIY文件夹和文件目录,打开/app/lib/modules/llm/providers中的open-router.ts文件,如下图所示:

您可以在open-router.ts文件中找到支持的LLM模型列表,您可以通过API访问这些模型以使用Bolt.DIY进行构建。在此文件中,我们需要通过修改两行代码来定义或添加Nebius DeepSeek模型。

让我们只修改一个模型名称和标签,而不是在文件中添加一个新的模型,因为我们只使用DeepSeek LLM,没有必要使列表变得更长。

{
name: 'deepseek/deepseek-chat',
label: 'Nebius-DeepSeek-V3',
provider: 'OpenRouter',
maxTokenAllowed: 8000,
},

在上述代码片段中,label是指在Bolt.DIY运行于localhost:5173时您看到的LLM选项,而name用于通过OpenRouter访问该特定模型。

我使用了Nebius-DeepSeek-V3作为label,以便在Bolt.DIY中识别该模型,您可以选择不同的名称。现在对于name,我们需要从OpenRouter复制模型ID。

转到OpenRouter仪表板,找到Nebius DeepSeek V3,并复制其模型ID(我使用的是V3,但如果您愿意,也可以复制DeepSeek R1)。

记住要从供应商标签下的Nebius处复制模型ID。这确保了您可以访问我们之前设置的相同DeepSeek模型。 🚀

现在,我将上述代码片段中的name更改为从仪表板复制的Nebius模型ID deepseek/deepseek-chat

现在,是时候在Bolt.DIY中使用它了!打开您的浏览器并访问运行中的localhost:5173

选择OpenRouter作为供应商,并选择我们在open-router.ts文件中标记的**”Nebius-DeepSeek-V3″**。

最后一步 – 添加您在第二步中获取的OpenRouter API密钥。粘贴该密钥并点击✅

恭喜🥳现在您可以在Bolt.DIY中使用免费的DeepSeek V3或R1来创建强大的应用程序

给Bolt.DIY一个提示,它将开始使用DeepSeek编写代码。

在Cursor中使用免费的DeepSeek

如果您已经完成了第一步和第二步,那么您已经知道如何获取免费的DeepSeek API访问权限,并使用Nebius Studio和OpenRouter进行设置。

Cursor是一个强大的IDE,许多开发人员使用它进行人工智能辅助的代码改进,或者使用其作曲家生成整个应用程序。它还支持OpenAI、Google、Anthropic和Azure LLM的自定义API密钥,使其成为现代开发任务的多功能工具。

现在,打开Cursor并转到设置 < 模型标签。您会发现有关使用OpenRouter模型的细节

有趣的是:这并未公开记录,大多数开发人员都没有注意到这一点。我打赌您也不知道!

在模型标签中点击添加模型,并从OpenRouter中获取Nebius模型ID,就像我们在Bolt.DIY中所做的那样,我使用的是R1,因此模型ID是deepseek/deepseek-r1

现在您已经添加了自定义模型名称,启用位于其下方的OpenAI API密钥切换开关。粘贴您在第二步中获取的OpenRouter API密钥,并用OpenRouter的baseURL覆盖OpenAI的baseURL。

您可以通过以下链接找到OpenRouter的baseURL

点击“保存”,然后点击“验证”,如下图所示:

恭喜🥳现在您可以在Cursor中使用免费的DeepSeek V3或R1来修复代码错误并进行改进

打开Cursor聊天,选择我们刚刚设置的模型,然后开始编码!

总结

DeepSeek R1和V3作为强大的开源人工智能模型,正在掀起波澜,它们在数学、编码和推理方面的顶级性能表现,无需像专有替代品那样承担高昂成本。

借助Nebius AI Studio,您可以以最具性价比的方式访问DeepSeek,这得益于其免费积分和经济实惠的定价。通过通过OpenRouter进行设置,您可以轻松地将其集成到像Bolt.DIY和Cursor这样的工具中,从而无需额外麻烦即可解锁人工智能驱动的开发。

#你可能也喜欢这些API文章!