
LLM的预训练任务有哪些
DeepSeek API 作为一款高性能、低成本的 AI 接口,凭借其强大的功能和与 OpenAI 的无缝兼容性,迅速成为开发者和企业关注的焦点。本文将为你详细介绍如何快速接入 DeepSeek API,并基于它搭建简易问答应用,让你轻松掌握 AI 开发的精髓。
DeepSeek API 以其卓越的性能和广泛的兼容性脱颖而出,成为开源 AI 模型领域的佼佼者。它不仅支持 OpenAI 兼容格式,大幅降低 API 调用成本,还通过最新技术架构实现了流式输出,助力高效开发。无论是技术小白还是开发高手,都能通过 DeepSeek API 快速实现自然语言处理和智能生成式对话功能,满足各种业务需求。
第一步,进入DeepSeek开放平台:https://platform.deepseek.com/usage。
第二步:点击左侧菜单中的“API keys”,进入API keys页面。点击“创建API key”按钮。
输入API key名称,名称可以随便取。
点击”创建”后会显示生成的密钥Key,这里记得先点复制再关闭弹窗,不然没法查看Key。
在接入 DeepSeek API 时,需要配置以下参数:
base_url
:https://api.deepseek.com
或 https://api.deepseek.com/v1
。api_key
:你在“API Keys”页面生成的密钥。model
:deepseek-chat
(DeepSeek-V3 默认模型)。为了保护 API Key 的安全性,建议将其存储在环境变量中,而不是直接写入代码。以下是两种常见的配置方法:
在终端中输入以下命令,将 API Key 添加到环境变量中(该方法仅在当前终端会话中有效):
export api_key="填入你的API Key"
如果希望永久添加环境变量,可以将上述命令添加到 ~/.bashrc
文件中。
在 Python 脚本中,通过以下代码获取环境变量中的 API Key:
import os
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"
.env
文件创建一个 .env
文件,并在其中写入以下内容(记得替换为你的 API Key):
api_key="your_api_key"
在同一路径下创建 Python 脚本文件,并在代码中添加以下内容:
import os
from dotenv import load_dotenv
load_dotenv()
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"
安装 OpenAI SDK(DeepSeek API 兼容 OpenAI SDK):
pip3 install openai
使用以下代码调用 DeepSeek API:
from openai import OpenAI
client = OpenAI(api_key=api_key, base_url=base_url)
response = client.chat.completions.create(
model=chat_model,
messages=[
{"role": "system", "content": "你是一个乐于助人的 AI 助手,能够帮助用户解决各种专业问题。"},
{"role": "user", "content": "你好,介绍下你自己"}
],
stream=False # 设置为 True 可启用流式输出
)
print("Model response:")
print(response.choices[0].message.content)
DeepSeek API 提供与 OpenAI 相同的 API 格式,无需修改现有代码,即可平滑过渡至 DeepSeek 平台。这意味着开发者可以轻松将现有基于 OpenAI 的项目迁移到 DeepSeek,享受更低的成本和更灵活的配置。
通过设置 stream=True
参数,DeepSeek API 可以实现类似 ChatGPT 的实时响应功能。这对于需要实时交互的应用场景(如在线客服、智能助手等)非常实用,能够提供更流畅的用户体验。
DeepSeek 提供了详细的开发文档,支持 Python、Node.js 和 Curl 等主流开发语言,帮助开发者快速上手。无论你是哪种编程语言的开发者,都能轻松找到适合自己的开发方式。
DeepSeek API 提供与 OpenAI 相同的 API 格式,但更灵活、更具成本效益,同时支持自定义模型和扩展能力。例如,DeepSeek 的 API 调用价格相对较低,且提供了更多自定义选项,适合对成本和灵活性有较高要求的开发者。
在调用 API 时,将 stream
参数设置为 True
即可启用流式输出。具体示例代码如下:
response = client.chat.completions.create(
model=chat_model,
messages=[
{"role": "system", "content": "你是一个乐于助人的 AI 助手,能够帮助用户解决各种专业问题。"},
{"role": "user", "content": "你好,介绍下你自己"}
],
stream=True # 启用流式输出
)
DeepSeek 平台支持团队多用户管理,便于共享 API Key 和分配调用权限。这对于团队开发和项目协作非常有帮助,能够有效提升团队的开发效率。
DeepSeek API 以其强大的功能、灵活的配置和低成本的优势,成为当前 AI 开发领域的一个热门选择。通过本文的详细介绍,相信你已经掌握了 DeepSeek API 的接入和使用方法。无论你是想搭建一个简易问答应用,还是开发更复杂的 AI 项目,DeepSeek API 都能为你提供强大的支持。