所有文章 > 日积月累 > 如何获取Yi-Large API Key:完整指南
如何获取Yi-Large API Key:完整指南

如何获取Yi-Large API Key:完整指南

在本文中,我们将深入探讨如何获取Yi-Large API Key,以便充分利用其强大的文本生成能力。随着人工智能的发展,文本生成模型在内容创作、客户服务等领域发挥着日益重要的作用。为了帮助开发者更好地接入这一技术,我们将详细介绍从注册到使用API的每一个步骤。

注册并认证账号

在使用Yi-Large API之前,首先需要在零一万物大模型开放平台注册并认证账号。通过访问零一万物大模型开放平台,你可以轻松完成注册流程。注册完成后,系统会引导你进行账号认证,这是使用API的必要前提。

注册零一万物大模型开放平台

认证流程

注册成功后,进入个人中心进行账号认证。认证通常需要提供一些基本信息,如身份证明等。认证过程通常在几分钟内完成,之后你就可以访问更多功能。

认证界面

创建API Key

完成账号认证后,下一步是创建API Key。API Key是你访问和使用Yi-Large API的凭证,确保其安全性至关重要。进入工作台,访问API Key管理菜单,你会看到一个系统自动创建的API Key,也可以选择创建新的API Key。

API Key管理

如何生成新的API Key

在API Key管理界面,点击“创建新的API Key”按钮。系统会生成一个新的API Key,并在弹出的对话框中显示。务必妥善保存此密钥,因为这是访问API的唯一凭证。

生成API Key

安装与调用

要使用Yi-Large API,需首先安装OpenAI SDK。零一万物API接口与OpenAI的Python SDK兼容,因此只需简单配置即可使用。确保使用Python版本至少为3.7.1,OpenAI SDK版本不低于1.0.0。

pip install openai

同步调用示例

以下是一个使用OpenAI SDK进行同步调用的示例。通过配置API Key和Base URL,即可快速调用Yi-Large API。

import openai
from openai import OpenAI
API_BASE = "https://api.lingyiwanwu.com/v1"
API_KEY = "your key"
client = OpenAI(api_key=API_KEY, base_url=API_BASE)
completion = client.chat.completions.create(
    model="yi-large-turbo",
    messages=[{"role": "user", "content": "Hi, who are you?"}]
)
print(completion)

流式调用示例

对于需要实时获取数据的应用,流式调用是一个不错的选择。以下代码展示了如何实现流式调用。

import openai
from openai import OpenAI
API_BASE = "https://api.lingyiwanwu.com/v1"
API_KEY = "your key"
client = OpenAI(api_key=API_KEY, base_url=API_BASE)
completion = client.chat.completions.create(
    model="yi-large",
    messages=[{"role": "user", "content": "Hi, who are you?"}],
    stream=True
)
for chunk in completion:
    print(chunk.choices[0].delta.content or "", end="", flush=True)

发起请求

在实际应用中,发起HTTP请求是调用API的一种常见方式。可以使用curl命令发送请求,替换$API_KEY为你的实际密钥。

curl --location 'https://api.lingyiwanwu.com/v1/chat/completions' 
--header 'Authorization: Bearer $API_KEY' 
--header 'Content-Type: application/json' 
--data '{
    "temperature": 0.3,
    "model": "yi-large-rag",
    "stream": false,
    "max_tokens": 3000,
    "messages": [
        {
            "role": "user",
            "content": "How is the weather in Los Angeles today?"
        }
    ]
}'

响应解析

请求成功后,API会返回一个JSON格式的响应,其中包含生成的文本、使用的tokens等信息。解析响应可以帮助你了解调用结果,并据此调整后续请求。

响应示例

使用LangChain进行调用

LangChain是一个基于OpenAPI的封装库,可以简化调用过程。安装LangChain后,只需配置相应的参数即可使用。

pip install langchain_openai

通过LangChain调用

以下是使用LangChain调用Yi-Large API的示例。只需修改base_urlmodel参数即可。

from langchain_openai import ChatOpenAI
from langchain_core.messages import HumanMessage, SystemMessage

chat = ChatOpenAI(
    model="yi-large",
    temperature=0.3,
    max_tokens=200,
    api_key='your key',
    base_url="https://api.lingyiwanwu.com/v1"
)

messages = [
    SystemMessage(content="你是一名精通了 golang 的专家"),
    HumanMessage(content="写一个 golang 的 hello world 程序"),
]

response = chat.invoke(messages)
print(response.content)

注意事项

在使用Yi-Large API时,有几点需要特别注意:

  1. 限速与滥用:API的速率限制可以防止滥用,同时确保所有用户都有良好的体验。合理配置限速策略可以帮助平台维护稳定性。

  2. 输出截断:如果响应被截断,可能是因为max_tokens设置过低。建议在调用API时适当增加max_tokens的值。

  3. 环境变量配置:可以通过环境变量指定API Key和Base URL,避免在代码中硬编码这些信息。

export OPENAI_API_KEY="your key"
export OPENAI_BASE_URL="https://api.lingyiwanwu.com/v1"

常见问题

FAQ

  1. 问:如何找到零一万物API?
    答:通过幂简集成平台可以轻松找到零一万物API。通过关键词搜索或从API hub分类页进入寻找。

  2. 问:API为什么要限速?
    答:限速有助于防止滥用、确保公平访问,并管理API基础设施的负载,保持服务的可靠性和性能。

  3. 问:如何避免输出被截断?
    答:建议在调用API时增加max_tokens的值,以避免生成内容超出限制而被截断。

  4. 问:如何在LangChain中使用Yi Model API?
    答:需要从langchain_openai库导入ChatOpenAI,并设置相应的api_baseapi_keymodel参数。

  5. 问:有什么替代服务商提供类似API服务?
    答:如360多模态大语言模型、语音大模型服务MiniMax-稀宇科技等,更多竞品可以在幂简集成开放平台中找到。

通过以上内容,你应该对如何获取和使用Yi-Large API Key有了更清晰的了解。希望这篇文章能为你的开发工作提供帮助,助你更好地利用AI的强大功能。

#你可能也喜欢这些API文章!