×

Mixtral 8x7B

Mixtral 8x7B 是由 Mistral AI 推出的稀疏专家混合(MoE)架构模型,结合多个 70 亿参数专家模型,兼顾高效性能与强大推理能力,适用于复杂自然语言处理任务。
渠道列表 可试用 排序
请选择
试用量
人气
服务商评分
暂无服务商