AI 模型服务-Mistral AI

AI 模型服务-Mistral AI

专用API
服务商 服务商: Mistral AI
【更新时间: 2024.07.18】 Mistral AI是企业和开发者的强大AI工具平台,提供预训练和自定义模型,支持自然语言处理和计算机视觉等任务,加速业务效率和创新。
服务星级:5星
⭐ ⭐ ⭐ ⭐ ⭐ 🌟 🌟
调用次数
0
集成人数
0
商用人数
0
! SLA: N/A
! 响应: N/A
! 适用于个人&企业
收藏
×
完成
取消
×
书签名称
确定
<
产品介绍
>

什么是Mistral AI的AI 模型服务?

Mistral AI 是一个研究实验室,致力于构建世界上最好的开源模型。 La Plateforme 使开发人员和企业能够在 Mistral 的开源和商业法学硕士的支持下构建新产品和应用程序。

什么是Mistral AI的AI 模型服务?

由服务使用方的应用程序发起,以Restful风格为主、通过公网HTTP协议调用Mistral AI的AI 模型服务,从而实现程序的自动化交互,提高服务效率。

Mistral AI的AI 模型服务有哪些核心功能?

开源模型

MistralAI 7B

我们的第一次。 7B 变压器模型,快速部署且易于定制。体积虽小,但功能强大,适用于各种用例。

  • 具有英语和代码表现
  • 32k 上下文窗口
Mixtral 8x7B

7B 稀疏专家混合 (SMoE)。使用总共 45B 个活动参数中的 12.9B 个。

  • 英语、法语、意大利语、德语、西班牙语流利,代码能力强
  • 32k 上下文窗口
Mixtral 8x22B

Mixtral 8x22B 是目前性能最高的开放型号。 22B 稀疏专家混合 (SMoE)。仅使用 141B 中的 39B 活动参数。

  • 英语、法语、意大利语、德语、西班牙语流利,代码能力强
  • 64k 上下文窗口
  • 本机函数调用能力
  • 我们的 API 端点上提供函数调用和 json 模式

优化模型

我们优化的商业模型专为性能而设计,并可通过我们灵活的部署选项获得

MistralAI small 

针对低延迟工作负载的经济高效推理。

  • 英语、法语、意大利语、德语、西班牙语流利,代码能力强
  • 32k token 的上下文窗口,具有出色的检索增强召回率
  • 本机函数调用能力、JSON 输出
  • 简洁、实用、不偏不倚、完全模块化
MistralAI large 

高复杂性任务的顶级推理。 Mistral AI 系列最强大的型号。

  • 英语、法语、意大利语、德语、西班牙语流利,代码能力强
  • 32k token 的上下文窗口,具有出色的检索增强召回率
  • 本机函数调用能力、JSON 输出
  • 简洁、实用、不偏不倚、完全模块化
MistralAI embed

用于提取文本摘录表示的最先进的语义。

  • 目前只有英语
  • 在大规模文本嵌入基准 (MTEB) 上获得 55.26 的检索分数

Codestral 

Codestral 是一种开放权重生成式 AI 模型,专为代码生成任务而设计。它帮助开发人员通过共享指令和完成 API 端点编写代码并与之交互。由于它掌握了代码和英语,因此可以用来为软件开发人员设计高级人工智能应用程序。

Codestral  22B

最先进的 Mistral 模型专门针对代码任务进行了训练。

  • 接受过 80 多种编程语言(包括 Python、Java、C、C++、PHP、Bash)培训
  • 针对低延迟进行了优化:比竞争编码模型小得多
  • 通过 La Plateforme 以及我们的合作伙伴提供基础版本(用于代码完成和生成),通过 Le Chat 提供指导版本
  • 32k的上下文窗口
  • 可根据Mistral AI 非生产许可证使用

Mistral AI的AI 模型服务的核心优势是什么?

最优 Apache 模型

成本与性能

我们构建高效的模型

我们构建的模型能够为各自的尺寸提供无与伦比的成本效率,从而提供市场上最佳的性价比。 Mixtral 8x22B 是最强大的开源模型,其参数比竞争对手少得多:

  • 比任何 70B 型号更快、性能更高
  • 性能优于 Command R+,体积小 2.5 倍以上
  • Mixtral 8x7B 在大多数基准测试中均优于 Llama 2 70B,推理速度提高了 6 倍
在apache.0下

我们的开放模型是真正的开源模型,在 Apache 2.0 下获得许可,这是一个完全宽松的许可证,允许在任何情况下不受限制地使用。

该平台

通过我们在欧洲托管的开发者平台访问我们的最新产品

为开发者打造

La Plateforme 是开发人员访问所有 Mistral Al 模型的首选方式。在欧洲的 Mistral Al 基础设施上托管并提供服务。

  • 我们以最优惠的价格提供最好的型号: 以无与伦比的性价比获得我们的型号
  • 指南和社区: 使用我们的指南和社区论坛来构建您自己的应用程序和服务
  • 设计安全: 您的数据在静态 (AES256) 和传输中 (TLS 1.2+) 均经过加密;我们的服务器位于欧盟
 
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"

client = MistralClient(api_key=api_key)

messages = [
    ChatMessage(role="user",
    content="Who is the most renowned French painter?")
]

微调我们的模型

我们允许您以简单、有效且经济高效的方式微调我们的模型,从而使用更小、更适合的模型来解决您的特定用例。可以使用我们的开源微调代码以及在 La Plateforme 上使用我们高效的微调 API 来完成微调。

 
使用 Mistral 微调代码

受益于 Mistral 微调代码,您可以自行对 Mistral 开源模型进行微调。

 
使用 Mistral Fine-tuning API 在 La Plateforme 上微调 Mistral 模型

通过使用我们高效的微调服务,利用 Mistral 在训练模型方面的独特专业知识,使我们的开源和商业模型专业化。

部署在任何地方

该平台 云平台 自行部署
通过我们托管在 Mistral 基础设施上的开发者平台,只需点击几下即可开始使用 Mistral 模型,并构建您自己的应用程序和服务。我们的服务器托管在欧盟 通过您首选的云提供商访问我们的模型并使用您的云积分。我们的开放模型目前可通过我们的云合作伙伴(GCP、AWS、Azure、Snowflake、NVIDIA)获得。
Mistral Large 可在 Azure AI Studio、AWS Bedrock 和 Snowflake 上使用。
在虚拟云或本地部署 Mistral 模型。自行部署提供了更高级的定制和控制。您的数据保留在您的墙内。尝试部署我们的开放模型,并联系我们的团队以类似方式部署我们的优化模型。
 

在哪些场景会用到Mistral AI的AI 模型服务?

自动大规模文本生成和处理
使用 RAG 和函数调用构建内部助手
使用我们的 Mistral 模型来处理、总结、分类或翻译任何类型的文本。总结长报告、对客户评论进行分类、将电子邮件翻译成其他语言、开展营销活动 - 可能性是无限的! 通过构建检索增强 (RAG) 应用程序,让您的员工轻松访问公司内部知识。您可以使用我们最先进的嵌入模型以及我们模型的函数调用能力。
为您的开发人员提供编码助手
根据您的客户群定制您的应用程序
通过定制的编码副驾驶来利用您的开发人员并加快您的编码速度!事实证明,Mistral 模型在编码方面特别强大,使其成为加速应用程序开发甚至 IT 遗留现代化的重要资产。 我们的多语言模型可以调整为遵循特定的编辑路线,并用于生成您为客户看到的内容。
<
产品价格
>

开源模型

  输入 输出
Mistral-7b 7B 变压器模型,快速部署且易于定制。 $0.25 /100 万个代币 $0.25 /100 万个代币
Mistral-8x7b 7B 稀疏专家混合 (SMoE)。使用总共 45B 个活动参数中的 12.9B 个。 0.7 美元/100 万个代币 0.7 美元/100 万个代币
Mistral-8x22b Mixtral 8x22B 是目前性能最高的开放型号。 22B 稀疏专家混合 (SMoE)。仅使用 141B 中的 39B 活动参数。 2 美元/100 万代币 6 美元/100 万个代币

优化模型

  输入 输出
codestral-small-2402 针对低延迟工作负载的经济高效推理。 1 美元 /100 万代币 3 美元/100 万个代币
codestral-2405 最先进的 Mistral 模型专门针对代码任务进行了训练。 1 美元 /100 万代币 3 美元/100 万个代币
codestral-large-2312 *很快就会被弃用* 2.7 美元/100 万个代币 8.1 美元/100 万个代币
codestral-large-2402 高复杂性任务的顶级推理。 Mistral AI 系列最强大的型号。 4 美元/100 万个代币 12 美元/100 万代币

嵌入

  输入 输出
Mistral-embed 用于提取文本摘录表示的最先进的语义。 0.1 美元/100 万个代币 0.1 美元/100 万个代币

微调模型

一次性培训 贮存 输入 输出
Mistral-7B 2 美元/100 万代币 每个型号每月 2 美元 0.75 美元/100 万个代币 0.75 美元/100 万个代币
Mistral-small 4 美元/100 万个代币 每个型号每月 2 美元 2.5 美元/100 万个代币 7.5 美元/100 万个代币
微调定价解释

Mistral AI 通过 La Plateforme 提供微调 API,可以轻松微调我们的开源和商业模型。与微调相关的成本有以下三项:

  • 一次性训练:您想要微调我们的标准模型的数据的每个代币的价格;每项微调工作的最低费用为 4 美元
  • 推论:使用微调模型时每个输入/输出代币的价格
  • 存储:每个模型每月的存储价格(无论模型使用情况如何;模型可以随时删除)
<
使用指南
>

Mistral AI 大型语言模型 (LLM )

我们发布开源和商业模型,为我们的开发者社区推动创新和便利。我们的模型具有最先进的多语言、代码生成、数学和高级推理功能。

开源

商业

  • Mistral Small,我们针对低延迟工作负载的经济高效的推理模型
  • Mistral Medium,对于需要适度推理的中级任务很有用;请注意,该模型将在未来几个月内被弃用
  • Mistral Large,我们用于高复杂性任务的顶级推理模型
  • Mistral Embeddings,我们用于提取文本提取表示的最先进的语义
  • Codestral,我们用于编码的尖端语言模型

对于我们的商业模式,我们一直在改进和迭代部署。在此处了解我们的模型版本控制的最新信息。

 

探索 Mistral AI API

Mistral AI API通过以下方式为 LLM 应用程序提供支持:

  • 文本生成,支持流式传输并提供实时显示部分模型结果的能力
  • 代码生成,支持代码生成任务,包括中间填充和代码完成
  • Embeddings,对于 RAG 很有用,它将文本的含义表示为数字列表
  • 函数调用,使 Mistral 模型能够连接到外部工具
  • JSON模式,开发者可以将响应格式设置为json_object
  • Guardrailing使开发人员能够在 Mistral 模型的系统级别实施策略

快速开始

Mistral AI API

在 Colab 中打开

Mistral AI API 为开发人员提供了一种无缝方式,只需几行代码即可将 Mistral 最先进的模型集成到他们的应用程序和生产工作流程中。我们的 API 目前可通过La Platform获取。您需要激活帐户中的付款才能启用 API 密钥。几分钟后,您将能够使用我们的chat端点:

Python

import os
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-large-latest"

client = MistralClient(api_key=api_key)

chat_response = client.chat(
    model=model,
    messages=[ChatMessage(role="user", content="What is the best French cheese?")]
)

print(chat_response.choices[0].message.content)
 
要使用 Mistral AI 的嵌入 API 生成文本嵌入,我们可以向 API 端点发出请求并指定嵌入模型mistral-embed,同时提供输入文本列表。然后,API 将以数值向量的形式返回相应的嵌入,可用于 NLP 应用程序中的进一步分析或处理。

Python

from mistralai.client import MistralClient

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-embed"

client = MistralClient(api_key=api_key)

embeddings_response = client.embeddings(
    model=model,
    input=["Embed this sentence.", "As well as this one."]
)

print(embeddings_response)

有关 API 上提供的模型的完整描述,请前往模型文档

 

账户设置

  • 首先,创建一个 Mistral 帐户或登录console.mistral.ai
  • 然后,导航到“工作区”和“账单”以添加您的付款信息并激活您帐户的付款。
  • 之后,转到“API 密钥”页面并通过单击“创建新密钥”来创建新的 API 密钥。请务必复制 API 密钥并安全保存,并且不要与任何人共享。

 

更多操作指南:https://docs.mistral.ai/

<
关于我们
>
Mistral AI是一家专注于人工智能技术的公司,提供包括聊天补全、文件嵌入、模型管理等在内的多样化API服务。用户可以通过其平台进行模型的微调、部署和管理,以满足特定需求。公司支持多种模型,具备聊天完成、功能调用等能力,并允许用户上传文件以供微调使用。Mistral AI致力于通过其先进的AI技术,为用户提供高效、定制化的解决方案。
联系信息
服务时间: 0点-24点
网页在线客服: 咨询

我们的任务

我们的使命是让前沿人工智能无处不在,并为所有建设者提供量身定制的人工智能。这需要极强的独立性、对开放、便携和可定制解决方案的坚定承诺,以及在有限时间内交付最先进的技术的极度专注。

跟我们工作

我们行动迅速、工作专注,具有高度的个人责任感和强大的团队精神。我们以最高水平的内部透明度运作,因为我们相信这是提高效率的主要驱动力。我们严谨,因为我们相信这是我们打造最佳技术的方式。我们富有创造力,因为我们知道训练最佳模型是一场寻找独特效率加速器的游戏。我们以客户为导向,因为我们希望我们的模型对现实世界的应用有所帮助。我们很自豪能成为一支由来自各个领域的多元化人员组成的团队,他们在人工智能领域拥有广泛的专业知识。

<
最可能同场景使用的其他API
>
API接口列表
<
产品价格
>

开源模型

  输入 输出
Mistral-7b 7B 变压器模型,快速部署且易于定制。 $0.25 /100 万个代币 $0.25 /100 万个代币
Mistral-8x7b 7B 稀疏专家混合 (SMoE)。使用总共 45B 个活动参数中的 12.9B 个。 0.7 美元/100 万个代币 0.7 美元/100 万个代币
Mistral-8x22b Mixtral 8x22B 是目前性能最高的开放型号。 22B 稀疏专家混合 (SMoE)。仅使用 141B 中的 39B 活动参数。 2 美元/100 万代币 6 美元/100 万个代币

优化模型

  输入 输出
codestral-small-2402 针对低延迟工作负载的经济高效推理。 1 美元 /100 万代币 3 美元/100 万个代币
codestral-2405 最先进的 Mistral 模型专门针对代码任务进行了训练。 1 美元 /100 万代币 3 美元/100 万个代币
codestral-large-2312 *很快就会被弃用* 2.7 美元/100 万个代币 8.1 美元/100 万个代币
codestral-large-2402 高复杂性任务的顶级推理。 Mistral AI 系列最强大的型号。 4 美元/100 万个代币 12 美元/100 万代币

嵌入

  输入 输出
Mistral-embed 用于提取文本摘录表示的最先进的语义。 0.1 美元/100 万个代币 0.1 美元/100 万个代币

微调模型

一次性培训 贮存 输入 输出
Mistral-7B 2 美元/100 万代币 每个型号每月 2 美元 0.75 美元/100 万个代币 0.75 美元/100 万个代币
Mistral-small 4 美元/100 万个代币 每个型号每月 2 美元 2.5 美元/100 万个代币 7.5 美元/100 万个代币
微调定价解释

Mistral AI 通过 La Plateforme 提供微调 API,可以轻松微调我们的开源和商业模型。与微调相关的成本有以下三项:

  • 一次性训练:您想要微调我们的标准模型的数据的每个代币的价格;每项微调工作的最低费用为 4 美元
  • 推论:使用微调模型时每个输入/输出代币的价格
  • 存储:每个模型每月的存储价格(无论模型使用情况如何;模型可以随时删除)
<
使用指南
>

Mistral AI 大型语言模型 (LLM )

我们发布开源和商业模型,为我们的开发者社区推动创新和便利。我们的模型具有最先进的多语言、代码生成、数学和高级推理功能。

开源

商业

  • Mistral Small,我们针对低延迟工作负载的经济高效的推理模型
  • Mistral Medium,对于需要适度推理的中级任务很有用;请注意,该模型将在未来几个月内被弃用
  • Mistral Large,我们用于高复杂性任务的顶级推理模型
  • Mistral Embeddings,我们用于提取文本提取表示的最先进的语义
  • Codestral,我们用于编码的尖端语言模型

对于我们的商业模式,我们一直在改进和迭代部署。在此处了解我们的模型版本控制的最新信息。

 

探索 Mistral AI API

Mistral AI API通过以下方式为 LLM 应用程序提供支持:

  • 文本生成,支持流式传输并提供实时显示部分模型结果的能力
  • 代码生成,支持代码生成任务,包括中间填充和代码完成
  • Embeddings,对于 RAG 很有用,它将文本的含义表示为数字列表
  • 函数调用,使 Mistral 模型能够连接到外部工具
  • JSON模式,开发者可以将响应格式设置为json_object
  • Guardrailing使开发人员能够在 Mistral 模型的系统级别实施策略

快速开始

Mistral AI API

在 Colab 中打开

Mistral AI API 为开发人员提供了一种无缝方式,只需几行代码即可将 Mistral 最先进的模型集成到他们的应用程序和生产工作流程中。我们的 API 目前可通过La Platform获取。您需要激活帐户中的付款才能启用 API 密钥。几分钟后,您将能够使用我们的chat端点:

Python

import os
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-large-latest"

client = MistralClient(api_key=api_key)

chat_response = client.chat(
    model=model,
    messages=[ChatMessage(role="user", content="What is the best French cheese?")]
)

print(chat_response.choices[0].message.content)
 
要使用 Mistral AI 的嵌入 API 生成文本嵌入,我们可以向 API 端点发出请求并指定嵌入模型mistral-embed,同时提供输入文本列表。然后,API 将以数值向量的形式返回相应的嵌入,可用于 NLP 应用程序中的进一步分析或处理。

Python

from mistralai.client import MistralClient

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-embed"

client = MistralClient(api_key=api_key)

embeddings_response = client.embeddings(
    model=model,
    input=["Embed this sentence.", "As well as this one."]
)

print(embeddings_response)

有关 API 上提供的模型的完整描述,请前往模型文档

 

账户设置

  • 首先,创建一个 Mistral 帐户或登录console.mistral.ai
  • 然后,导航到“工作区”和“账单”以添加您的付款信息并激活您帐户的付款。
  • 之后,转到“API 密钥”页面并通过单击“创建新密钥”来创建新的 API 密钥。请务必复制 API 密钥并安全保存,并且不要与任何人共享。

 

更多操作指南:https://docs.mistral.ai/

<
依赖服务
>
<
关于我们
>
Mistral AI是一家专注于人工智能技术的公司,提供包括聊天补全、文件嵌入、模型管理等在内的多样化API服务。用户可以通过其平台进行模型的微调、部署和管理,以满足特定需求。公司支持多种模型,具备聊天完成、功能调用等能力,并允许用户上传文件以供微调使用。Mistral AI致力于通过其先进的AI技术,为用户提供高效、定制化的解决方案。
联系信息
服务时间: 0点-24点
网页在线客服: 咨询

我们的任务

我们的使命是让前沿人工智能无处不在,并为所有建设者提供量身定制的人工智能。这需要极强的独立性、对开放、便携和可定制解决方案的坚定承诺,以及在有限时间内交付最先进的技术的极度专注。

跟我们工作

我们行动迅速、工作专注,具有高度的个人责任感和强大的团队精神。我们以最高水平的内部透明度运作,因为我们相信这是提高效率的主要驱动力。我们严谨,因为我们相信这是我们打造最佳技术的方式。我们富有创造力,因为我们知道训练最佳模型是一场寻找独特效率加速器的游戏。我们以客户为导向,因为我们希望我们的模型对现实世界的应用有所帮助。我们很自豪能成为一支由来自各个领域的多元化人员组成的团队,他们在人工智能领域拥有广泛的专业知识。

<
最可能同场景使用的其他API
>