Novita API产品27
Mistral NeMo 12B 是由 Mistral AI 与 NVIDIA 联合开发的开源大语言模型,拥有 120 亿参数,支持最长 128K token 的上下文输入,专为多轮对话、代码生成和多语言任务优化。该模型采用 FP8 精度格式,提升推理效率,适用于企业级应用。Mistral NeMo 12B 可通过 NVIDIA NIM 微服务部署,便于在各类平台上快速集成和使用。
Mistral 7B Instruct 是由 Mistral AI 发布的开源指令微调语言模型,拥有 73 亿参数,专为对话生成、代码编写和函数调用等任务优化。该模型采用 Grouped-Query Attention(GQA)机制,支持最长 32,768 个 token 的上下文输入,性能优于 LLaMA 2 13B,适用于智能问答、内容创作和多语言应用场景。Mistral 7B Instruct 可通过 Hugging Face 和 NVIDIA NIM 等平台部署使用。 
Llama 3.1 70B Instruct 是 Meta 于 2024 年 7 月发布的多语言指令微调大语言模型,拥有 700 亿参数,支持最长 128K token 的上下文输入。该模型采用优化的 Transformer 架构,结合分组查询注意力(GQA)机制,通过监督微调(SFT)和人类反馈强化学习(RLHF)进行训练,优化了多语言对话、代码生成、数学推理等任务,适用于智能问答、内容生成和多语言应用场景。
Llama 3 8B Instruct 是 Meta 于 2024 年 4 月发布的开源指令微调语言模型,拥有 80 亿参数,专为对话、代码生成和多语言任务优化。该模型在 15 万亿 token 上进行预训练,结合监督微调(SFT)和人类反馈强化学习(RLHF)进行训练,支持最长 8,192 个 token 的上下文输入,适用于智能问答、内容创作和企业级应用场景。
Llama 3.2 11B Vision Instruct 是 Meta 于 2024 年 9 月发布的多模态指令微调模型,拥有 110 亿参数,支持图像与文本混合输入,输出文本结果。该模型优化了图像识别、视觉问答、图像描述和文档解析等任务,支持最长 128K token 的上下文输入,适用于内容生成、智能问答、教育辅助等场景。可通过 Hugging Face 和 Amazon Bedrock 等平台部署使用。
Llama 3.1 70B Instruct 是 Meta 于 2024 年发布的多语言指令微调大语言模型,拥有 700 亿参数,支持最长 128K token 的上下文输入。该模型采用优化的 Transformer 架构,结合分组查询注意力(GQA)机制,通过监督微调(SFT)和人类反馈强化学习(RLHF)进行训练,优化了多语言对话、代码生成、数学推理等任务,适用于智能问答、内容生成和多语言应用场景。
Llama 3.1 8B Instruct BF16 是 Meta 于 2024 年 7 月发布的多语言指令微调大语言模型,拥有 80 亿参数,采用 bfloat16 精度格式,优化了推理性能和内存效率。该模型支持最长 128K token 的上下文输入,适用于对话生成、代码编写和多语言翻译等任务,适合在资源受限的本地部署和商业应用场景。
Llama 3.1 8B Instruct 是 Meta 于 2024 年 7 月发布的多语言指令微调大语言模型,拥有 80 亿参数,支持最长 128K token 的上下文输入。该模型采用 Grouped-Query Attention(GQA)机制,优化了对话、文本生成、代码编写和多语言翻译等任务,适用于资源受限的本地部署和商业应用场景。
Llama 3.2 1B Instruct 是 Meta 于 2024 年 9 月发布的轻量级多语言指令微调模型,拥有 12.3 亿参数,支持最长 128K token 的上下文输入。该模型采用优化的 Transformer 架构,结合 Grouped-Query Attention(GQA)机制,通过监督微调(SFT)和人类反馈强化学习(RLHF)进行训练,优化了多语言对话、摘要生成和知识检索等任务,适用于边缘设备和移动应用。