|
Mixtral 8x7B |
Mixtral 8x7B 是由 Mistral AI 推出的稀疏专家混合(MoE)架构模型,结合多个 70 亿参数专家模型,兼顾高效性能与强大推理能力,适用于复杂自然语言处理任务。 |
渠道列表 |
|
可试用
排序
请选择
▼
|
暂无服务商