所有文章 > 日积月累 > MiniMax Hailuo (海螺)AI 免费服务
MiniMax Hailuo (海螺)AI 免费服务

MiniMax Hailuo (海螺)AI 免费服务

海螺AI API 是一个功能强大的工具,支持对话补全、语音合成、语音转录、文档解析以及图像分析等多种功能。本文详细介绍了如何接入海螺AI API ,包括获取API Token、多种部署方案(如Docker、Vercel、Render等)、核心接口的使用方法、高级功能配置以及推荐客户端。通过丰富的代码示例和实用建议,用户可以快速上手并优化使用体验。无论您是开发者还是普通用户,本指南都能帮助您高效利用海螺AI的强大能力。

一、接入准备

1. 获取API Token

要使用海螺AI API ,首先需要获取有效的API Token。具体步骤如下:

  • 打开浏览器,访问海螺AI官方网站并登录。
  • 进入任意对话页面,开始与AI交互。
  • 按下F12键(或右键选择“检查”),打开浏览器的开发者工具。
  • 在开发者工具中,切换到“Application”选项卡,找到“LocalStorage”部分。
  • 在左侧列表中定位到与海螺AI相关的域名,查找名为“_token”的字段。
  • 复制该字段的值,这就是您的Bearer Token。

在后续的API请求中,您需要将此Token加入请求头中,格式如下:

Authorization: Bearer YOUR_TOKEN_HERE

例如,如果您的Token是abc123xyz,请求头应为:

Authorization: Bearer abc123xyz

2. 多账号接入方案

如果您拥有多个海螺AI账号,可以通过多Token轮询机制提高请求的稳定性。方法很简单,只需在请求头中用逗号分隔多个Token即可。例如:

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

系统会自动轮询这些Token,确保当某个Token失效或达到限额时,切换到下一个可用Token。这种方式特别适合高并发场景或需要长时间运行的服务。


二、部署方案

1. Docker部署

Docker是快速部署海螺AI API 服务的首选方式。以下是具体步骤:

  • 启动容器
    使用以下命令快速启动一个容器:
docker run -it -d --init --name minimax-free-api -p 8000:8000 -e TZ=Asia/Shanghai vinlic/minimax-free-api:latest

参数说明:

  • -p 8000:8000:将容器内的8000端口映射到主机的8000端口。
  • -e TZ=Asia/Shanghai:设置时区为东八区。
  • vinlic/minimax-free-api:latest:使用最新的镜像版本。
  • 服务管理
    部署后,您可以通过以下命令管理服务:
docker logs -f minimax-free-api   # 查看实时日志,排查问题
docker restart minimax-free-api # 重启服务
docker stop minimax-free-api # 停止服务

2. Docker-compose方案

如果您更喜欢使用配置文件管理服务,可以选择Docker-compose。创建一个docker-compose.yml文件,内容如下:

version: '3'
services:
minimax-free-api:
image: vinlic/minimax-free-api:latest
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai
restart: always

保存文件后,在同一目录下运行:

docker-compose up -d

服务将自动启动,并配置为始终重启,确保高可用性。

3. Render云部署

Render是一个简单易用的云平台,适合托管海螺AI API 服务。部署步骤如下:

  • 将项目Fork到您的GitHub仓库。
  • 登录Render官网(render.com),创建一个新的Web Service。
  • 在配置页面选择您的GitHub仓库,并选择“Free”实例类型。
  • 保存并部署,Render会自动拉取代码并运行。

注意:由于部分地区可能受限,建议选择支持的区域(如美国或欧洲)进行部署。

4. Vercel部署

Vercel是一个面向前端开发者的无服务器平台,也可以用来部署海螺AI API 。操作如下:

  • 安装Vercel CLI:
npm i -g vercel
  • 登录Vercel:
vercel login
  • 部署项目:
vercel --prod

注意:Vercel免费版有10秒的响应超时限制,适合轻量级应用。若需长时间运行的任务,建议选择其他方案。

5. 原生部署

如果您更喜欢在本地服务器上部署,可以使用Node.js环境:

  • 安装依赖:
npm i
  • 构建项目:
npm run build
  • 使用PM2启动服务:
pm2 start dist/index.js --name "minimax-free-api"

PM2会确保服务在后台运行,并提供进程管理功能。


三、核心接口说明

1. 对话补全

对话补全是最常用的功能,用于与海螺AI进行文本交互。接口详情如下:

  • 请求地址POST /v1/chat/completions
  • 请求示例
{
"model": "hailuo",
"messages": [
{"role": "user", "content": "你好,我今天心情很好!"}
],
"stream": false
}
  • 返回示例
{
"choices": [
{
"message": {
"role": "assistant",
"content": "很高兴听到这个消息!你今天有什么特别的计划吗?"
}
}
]
}

2. 语音合成

语音合成可以将文本转为语音,支持多种发音人。接口如下:

  • 请求地址POST /v1/audio/speech
  • 环境变量配置
REPLACE_AUDIO_MODEL="Podcast_girl,yueyue_hailuo,keli_hailuo"
  • 请求示例
{
"text": "欢迎使用海螺AI",
"voice": "yueyue_hailuo"
}

3. 语音转录

语音转录可以将音频文件转为文本。支持格式包括wav、mp3、m4a、ogg和flac。

  • 请求地址POST /v1/audio/transcriptions
  • 请求示例(需上传音频文件):
curl -X POST "http://localhost:8000/v1/audio/transcriptions" \
-H "Authorization: Bearer YOUR_TOKEN" \
-F "file=@audio.mp3"

4. 文档解析

支持解析PDF和Word文档,将内容提取为文本。

  • 请求示例
{
"content": [
{"type": "file", "file_url": {"url": "https://example.com/doc.pdf"}},
{"type": "text", "text": "请总结文档内容"}
]
}

5. 图像解析

支持图像内容分析,兼容GPT-4 Vision格式。

  • 请求示例
{
"content": [
{"type": "image_url", "image_url": {"url": "https://example.com/image.jpg"}},
{"type": "text", "text": "请描述图片中的场景"}
]
}

四、高级功能

1. Token状态检测

检测Token是否有效,避免因失效导致服务中断。

  • 请求地址POST /token/check
  • 请求示例
{"token": "YOUR_TOKEN"}
  • 响应示例
{"live": true}

2. Nginx优化配置

为提高性能,可以搭配Nginx作为反向代理。推荐配置如下:

server {
listen 80;
server_name your_domain.com;

location / {
proxy_pass http://localhost:8000;
proxy_buffering off;
chunked_transfer_encoding on;
tcp_nopush on;
keepalive_timeout 120;
}
}

五、推荐客户端


六、注意事项

  • Token统计:API返回的Token使用量为固定值,仅供参考。
  • 免费实例限制:无请求时,免费实例会在15分钟后进入休眠。
  • 语音合成:支持自定义音色映射,提升个性化体验。
  • SSE流式传输:推荐使用Server-Sent Events(SSE)以获得实时响应。
#你可能也喜欢这些API文章!