together API产品35
Mixtral 8x7B v0.1 是 Mistral AI 于 2023 年 12 月发布的开源大型语言模型,采用稀疏混合专家(SMoE)架构。模型由 8 个各含 70 亿参数的专家组成,总参数量达 46.7 亿,但每次推理仅激活 2 个专家,约 12.9 亿参数,兼顾性能与效率。该模型支持最长 32K token 的上下文处理,在多个基准测试中表现优异,性能超过 LLaMA 2 70B 和 GPT-3.5。
Mixtral 8x7B Instruct v0.1 是 Mistral AI 于 2023 年 12 月发布的开源指令微调语言模型,采用稀疏混合专家(SMoE)架构,拥有 46.7 亿总参数。每个 token 推理时仅激活 2 个专家,总计约 12.9 亿活跃参数,兼顾性能与效率。该模型支持最长 32K token 的上下文处理,在数学、代码生成和多语言任务中表现优异,性能超过 LLaMA 2 70B 和 GPT-3.5。
Mistral-7B-Instruct-v0.3 是 Mistral AI 于 2024 年 5 月发布的开源指令微调语言模型,拥有 70 亿参数,专为对话生成、任务执行和文本创作等场景优化。该模型基于 Mistral-7B-v0.3 架构,采用 Grouped-Query Attention(GQA)机制,支持最长 32K token 的上下文处理,推理速度快,资源效率高。相较于 v0.2 版本,v0.3 扩展了词汇表至 32,768,支持 v3 分词器,并引入了函数调用功能,显著提升了模型的指令跟随能力和上下文理解能力。
Mistral-7B-Instruct-v0.2 是 Mistral AI 于 2023 年底发布的开源指令微调语言模型,拥有 70 亿参数,专为对话生成、任务执行和文本创作等场景优化。该模型基于 Mistral-7B-v0.2 架构,采用 Grouped-Query Attention(GQA)机制,支持最长 32K token 的上下文处理,推理速度快,资源效率高。
LLaMA-2 Chat(13B)是 Meta 于 2023 年 7 月发布的开源对话语言模型,拥有 130 亿参数,专为多轮对话和指令跟随任务优化。该模型采用优化的 Transformer 架构,通过监督微调(SFT)和人类反馈强化学习(RLHF)进行训练,提升了回答的准确性和安全性。LLaMA-2 Chat 在多个基准测试中表现优异,性能媲美闭源模型,适用于智能助手、内容创作和多语言对话等场景。
LLaMA-2 Chat(7B)是 Meta 于 2023 年 7 月发布的开源对话语言模型,拥有 70 亿参数,专为多轮对话和指令跟随任务优化。该模型采用优化的 Transformer 架构,通过监督微调(SFT)和人类反馈强化学习(RLHF)进行训练,提升了回答的准确性和安全性。LLaMA-2 Chat 在多个基准测试中表现优异,性能媲美闭源模型,适用于智能助手、内容创作和多语言对话等场景。
Llama 3.3 70B Instruct Turbo 是 Meta 于 2024 年 12 月 6 日发布的高性能指令微调大型语言模型,拥有 700 亿参数,专为多语言对话、文本生成和翻译等任务优化。该模型采用 FP8 量化技术,显著提升推理速度,在保持高准确率的同时,降低了资源消耗。支持最长 128K token 的上下文处理,覆盖英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语等 8 种语言。
Llama 3 70B Instruct Reference 是 Meta 于 2024 年 4 月 18 日发布的开源大型语言模型,拥有 700 亿参数,专为指令跟随和对话任务优化。该模型采用优化的 Transformer 架构,结合监督微调(SFT)和人类反馈强化学习(RLHF)进行训练,提升了回答的准确性和安全性。在多个行业基准测试中表现优异,适用于智能助手、内容创作和多语言对话等场景。