魔搭大模型平台-ModelScope

魔搭大模型平台-ModelScope

专用API
【更新时间: 2024.06.20】 ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!
0元起 (支持套餐) 去服务商官网采购>
服务星级:2星
⭐ ⭐ 🌟 🌟 🌟 🌟 🌟
浏览次数
40
采购人数
0
试用次数
0
! SLA: N/A
! 响应: N/A
! 适用于个人&企业
收藏
×
完成
取消
×
书签名称
确定
<
产品介绍
>

什么是ModelScope的魔搭大模型平台?

ModelScope 社区成立于 2022 年 6 月,是一个模型开源社区及创新平台,由阿里巴巴通义实验室(Institute for Intelligent Computing),联合 CCF开源发展委员会,共同作为项目发起方。社区联合国内 AI 领域合作伙伴与高校机构, 致力于通过开放的社区合作,构建深度学习相关的模型开源社区,并开放相关模型创新技术,推动基于“模型即服务”(Model-as-a-Service)理念的模型应用生态的繁荣发展。

什么是ModelScope的魔搭大模型平台?

由服务使用方的应用程序发起,以Restful风格为主、通过公网HTTP协议调用ModelScope的魔搭大模型平台,从而实现程序的自动化交互,提高服务效率。

ModelScope的魔搭大模型平台有哪些核心功能?

  1. 丰富的预训练SOTA模型

    覆盖NLP、CV、Audio等多领域的具有竞争力的SOTA模型,更有行业领先的多模态大模型,全部免费开放下载以及使用。

  2. 多元开放的数据集

    汇集行业和学术热门的公开数据集,更有阿里巴巴集团贡献的专业领域数据集等你来探索。

  3. 一行代码使用模型推理能力

    提供基于模型的本地推理接口,以及线上模型推理预测服务,方便开发者快速验证与使用。

  4. 十行代码快速构建专属行业模型

    十几行代码实现对预训练模型的微调训练(finetune),方便开发者基于行业数据集快速构建专属行业模型。

  5. 即开即用的在线开发平台

    一键开启在线Notebook实训平台,集成官方镜像免除环境安装困扰,链接澎湃云端算力,体验便捷的交互式编程。

  6. 灵活的模型框架与部署方式

    兼容主流AI框架,更好地实现模型迁移;多种模型训练与服务部署方式,提供更多自主可控的选择。

  7. 丰富的教学内容与技术资源

    提供友好的优质的教程内容与开放的社区氛围,帮助开发者学习成长。(内容持续更新中,敬请关注)

ModelScope的魔搭大模型平台的核心优势是什么?

 

  1. 丰富的预训练模型库

    • 海量模型:平台提供了大量预训练模型,涵盖计算机视觉、自然语言处理、语音识别等多个领域,用户可以根据需求选择合适的模型。
    • 持续更新:模型库不断更新,及时引入最新的研究成果和技术,确保用户使用的是最先进的模型。
  2. 易用性

    • 一站式平台:集模型开发、训练、部署和管理于一体,提供简洁明了的用户界面,方便开发者快速上手。
    • 低代码/无代码:支持低代码或无代码的开发方式,即使没有深厚的编程基础,也能轻松构建AI应用。
    • 零门槛在线开发环境:提供Notebook在线开发环境,无需安装任何本地环境,快速开始开发。
  3. 高效的模型训练

    • 强大的计算资源:利用阿里云强大的计算资源,支持大规模分布式训练,加速模型训练过程。
    • 自动调优:提供自动超参数调优功能,帮助开发者快速找到最佳模型配置,提高训练效率。
    • 免费算力支持:长期免费提供CPU资源,初始提供100小时的免费GPU算力,降低开发成本。
  4. 灵活的部署方式

    • 多样化部署:支持云端、边缘和本地多种部署方式,满足不同应用场景的需求。
    • 便捷集成:提供丰富的API和SDK,方便将模型集成到现有系统和应用中,实现快速部署。
  5. 强大的数据管理

    • 数据处理工具:提供数据预处理、清洗、标注等工具,帮助用户高效管理和处理数据。
    • 数据安全:通过多重安全措施,确保数据在存储和传输过程中的安全性。
  6. 完善的工程框架和开源生态

    • 助力大模型研发:提供完善的工程框架和工具链,支持大模型的研发和优化。
    • 开源生态:丰富的开源项目和社区支持,促进技术交流和合作。
  7. 全面的支持与服务

    • 技术支持:提供专业的技术支持团队,帮助用户解决在使用过程中的各种问题。
    • 社区与生态:建立活跃的开发者社区,用户可以在社区中交流经验、分享成果,并获取最新的技术资讯。
  8. 模型即服务

    • 模型即服务:通过ModelScope平台,将“模型即服务”(Model-as-a-Service)的理念生动实现,用户可以像使用服务一样方便地使用和管理AI模型。
  9. 成本效益

    • 按需付费:灵活的计费模式,根据使用的资源量按需付费,帮助用户有效控制成本。
    • 资源优化:通过资源调度和优化,最大化利用计算资源,提高性价比。

 

 

在哪些场景会用到ModelScope的魔搭大模型平台?

 

1.自然语言处理 (NLP):ModelScope允许开发人员使用各种NLP模型,如机器翻译,问答,文本摘要和文本分类。

2.计算机视觉:ModelScope允许开发人员使用各种计算机视觉模型,例如图像识别,物体检测和图像分类。

3.推荐系统:ModelScope允许开发人员使用各种推荐系统模型,例如个性化推荐,基于内容和基于关系的推荐。

4.时间序列预测:ModelScope允许开发人员使用各种时间序列预测模型,例如预测未来的销售量,交通流量或股票价格。

5.语音识别:ModelScope允许开发人员使用各种语音识别模型,例如语音转文本或文本转语音。

6.生物信息学:ModelScope允许开发人员使用各种生物信息学模型,例如基因序列分析,蛋白质折叠和药物设计。

7.金融:ModelScope允许开发人员使用各种金融模型,例如风险评估,证券定价和投资组合优化。

8.人工智能助手:ModelScope允许开发人员使用各种人工智能助手模型,例如自然语言理解,语音识别和自动问答。

 

合作伙伴

关于我们
ModelScope 社区成立于 2022 年 6 月,是一个模型开源社区及创新平台,由阿里巴巴通义实验室(Institutefor Intelligent Computing),联合CCF开源发展委员会,共同作为项目发起方。社区联合国内 AI 领域合作伙伴与高校机构,致力于通过开放的社区合作,构建深度学习相关的模型开源社区,并开放相关模型创新技术,推动基于“模型即服务”(Model-as-a-Service)理念的模型应用生态的繁荣发展。
 
<
产品价格
>

新注册用户限时赠送100小时免费GPU算力哦!
包含100小时32GB显存GPU+长期免费CPU计算资源

 

<
使用指南
>

如果你是新手,想快速体验产品, 请参阅本文快速开始。快速开始包含基础概念知识和环境安装指南,可帮助你快速启动并运行ModelScope Library;

如果你准备好环境,想要进一步探索ModelScope Library的模型使用,请参阅ModelScope Library教程。该模块将帮你获得平台使用所需的基础使用和教学指导;

如果你对特定的模型感兴趣,并想了解该模型的推理、训练等过程,请参阅模型介绍。该模块将进一步介绍针对特定模型的最佳实践说明;

如果你对特定的任务感兴趣,并想了解该任务的推理、训练、导出及可用模型等信息,请参阅各任务最佳实践。该模块将介绍针对特定任务的端到端使用说明;

如果你对**大模型(LLM)和AIGC(Stable Diffusion)**的训练推理感兴趣,请参考Swift使用指南大模型训练与推理文生图训练与推理

如果你想成为社区的贡献者,请参阅贡献者指南。该模块介绍作为社区贡献者您所需要具备的基础知识、平台的设计规范和使用说明。我们非常欢迎您成为社区的贡献者分享您的内容,在成为贡献者之前,请您仔细阅读开源行为准则,共同为推进绿色社区助力!

 

详细入门文档: https://modelscope.cn/docs/%E5%BF%AB%E9%80%9F%E5%BC%80%E5%A7%8B

<
产品问答
>
?
ModelScope 社区平台的模型支持商用吗?
开源的模型商用需要遵循开源协议,具体可参考下对应的模型的开源协议。
?
pip install 的时候有些包下载特别慢怎么办?
在国内 pip 安装的时候,如果默认是用海外的 pypi 源的话,可能因为网络问题,下载速度受限。建议在国内可以通过"-i https://pypi.tuna.tsinghua.edu.cn/simple" 的命令行选项,来配置仓库来源使用"清华源"。
?
用 git 拉取模型到本地,发现模型文件和远程仓库文件大小不一致,是什么问题?
因部分文件使用 lfs 进行存储,需要先安装 lfs 工具。请检查下是否没有安装 git lfs(pip list|grep lfs),如果没有安装,请使用 git lfs install 命令安装。
?
我的系统目前是 Windows,使用某模型的时候报错,是什么问题?
ModelScope 框架本身支持 Windows 环境的运行。但是平台上多种多样的模型,本身难免会有一些模型会部分依赖于系统环境,从而影响在 Windows 上的兼容性。 一方面您通过 ModelScope 网站上提供的 notebook 环境试用,另一方面,对于少数在 Windows 需要单独配置的模型,可以通过创建 windows linux subsystem 来模拟 Linux 环境,或者根据具体三方依赖包的官方网站说明,来在 Windows 环境下多独立安装。
?
ModelScope 模型的使用依赖于互联网连接吗?
ModelScope 通过 Model Hub 和 Dataset Hub 来进行模型和数据集的管理和版本管理。因此要获取最好的用户体验,我们建议尽量在联网环境下使用。这能确保您使用的模型和数据集都能是最新的版本,获取最好的模型和数据集。另一方面,如果您使用 ModelScope 开源模型的环境没有网络连接,那也可以通过将模型下载到本地,再从本地直接加载的方式来使用。
?
环境 mac os x86,系统 Ventura 13 Beta 13,环境安装报错“missing...
MBP 新环境碰到这个问题,您需要执行 xcode-select --install。
?
基础大模型下载下来之后如何支持下游模型?
针对大模型您可以尝试 zeroshot,fine tune 后会有更好的表现。
?
多卡环境,如何指定卡推理?
推理可以传递参数 device,pipeline 参数: device 设置 'gpu:0' 即可。
?
zero-shot 分类模型可以用下游的自己的数据作微调吗?
可以。如果您的数据 label 变化较大,出于追求模型效果,classifier 可以 init weight 处理。如果您的数据 label 变化不大,可以直接在 classifier 上继续微调。
?
在哪里可以看得到 ModelScope 教程和实战资料?
您可以查看 ModelScope 实战训练营,点击报名后即可查看所有录制的视频课程。
?
ModelScope 有没有已经搭好的 docker 镜像,以及我应该在哪里下载使用?
ModelScope 提供 GPU 镜像和 CPU 镜像,具体可在环境安装内查看最新版本镜像信息。
?
ModelScope 是否支持算法评测?
目前 API 支持单个模型的 finetune 和评测,批量评测功能还在持续建设中,您暂时可以写个脚本来实现。
?
ModelScope 是否会推出纯离线的 SDK 版本?
现在模型大部分还是需要基于服务端的算力支持,纯端上的模型的剪枝和转化可以需要用一些工具来解决,这部分工具能力还在规划开放中。
?
通过 SDK 上传数据集或模型时,报错“requests.exceptions.HTTPError:...
您可以先检查下当前的 Library 版本,确认下是否为最新。然后检查下采用的 token 是否为 SDK token。若还不能解决该问题,请联系官方协助您解决。
?
使用官方镜像,但加载模型过程中会存在报错,应该怎么解决?
您可以先通过 pip list 等方式,对照环境安装内版本号看当前镜像是否为最新版本,若非最新版本,可更新后重试。若重试依然无法解决问题,请通过官方钉钉群联系我们。
?
模型大文件上传遇到问题如何解决?
模型文件一般都比较大,我们通过 git lfs 管理模型中的大文件,首先确保您安装了正确版本的 git-lfs, 另外请确保您的大文件在文件列表中(.gitattributes 文件).
<
关于我们
>
通义云启(杭州)信息技术有限公司是一家位于中国杭州的高科技企业,专注于提供专业的信息技术服务和解决方案。公司秉承创新、合作、共赢的理念,致力于通过先进的技术手段,帮助客户实现数字化转型和业务增长。通义云启拥有一支经验丰富、技术精湛的团队,为客户提供定制化、高质量的服务,涵盖软件开发、系统集成、云计算、大数据等多个领域。我们期待与您携手合作,共创美好未来。
联系信息
服务时间: 00:00:00至24:00:00
邮箱: contact@modelscope.cn
<
最可能同场景使用的其他API
>
API接口列表
<
产品价格
>

新注册用户限时赠送100小时免费GPU算力哦!
包含100小时32GB显存GPU+长期免费CPU计算资源

 

<
使用指南
>

如果你是新手,想快速体验产品, 请参阅本文快速开始。快速开始包含基础概念知识和环境安装指南,可帮助你快速启动并运行ModelScope Library;

如果你准备好环境,想要进一步探索ModelScope Library的模型使用,请参阅ModelScope Library教程。该模块将帮你获得平台使用所需的基础使用和教学指导;

如果你对特定的模型感兴趣,并想了解该模型的推理、训练等过程,请参阅模型介绍。该模块将进一步介绍针对特定模型的最佳实践说明;

如果你对特定的任务感兴趣,并想了解该任务的推理、训练、导出及可用模型等信息,请参阅各任务最佳实践。该模块将介绍针对特定任务的端到端使用说明;

如果你对**大模型(LLM)和AIGC(Stable Diffusion)**的训练推理感兴趣,请参考Swift使用指南大模型训练与推理文生图训练与推理

如果你想成为社区的贡献者,请参阅贡献者指南。该模块介绍作为社区贡献者您所需要具备的基础知识、平台的设计规范和使用说明。我们非常欢迎您成为社区的贡献者分享您的内容,在成为贡献者之前,请您仔细阅读开源行为准则,共同为推进绿色社区助力!

 

详细入门文档: https://modelscope.cn/docs/%E5%BF%AB%E9%80%9F%E5%BC%80%E5%A7%8B

<
依赖服务
>
<
产品问答
>
?
ModelScope 社区平台的模型支持商用吗?
开源的模型商用需要遵循开源协议,具体可参考下对应的模型的开源协议。
?
pip install 的时候有些包下载特别慢怎么办?
在国内 pip 安装的时候,如果默认是用海外的 pypi 源的话,可能因为网络问题,下载速度受限。建议在国内可以通过"-i https://pypi.tuna.tsinghua.edu.cn/simple" 的命令行选项,来配置仓库来源使用"清华源"。
?
用 git 拉取模型到本地,发现模型文件和远程仓库文件大小不一致,是什么问题?
因部分文件使用 lfs 进行存储,需要先安装 lfs 工具。请检查下是否没有安装 git lfs(pip list|grep lfs),如果没有安装,请使用 git lfs install 命令安装。
?
我的系统目前是 Windows,使用某模型的时候报错,是什么问题?
ModelScope 框架本身支持 Windows 环境的运行。但是平台上多种多样的模型,本身难免会有一些模型会部分依赖于系统环境,从而影响在 Windows 上的兼容性。 一方面您通过 ModelScope 网站上提供的 notebook 环境试用,另一方面,对于少数在 Windows 需要单独配置的模型,可以通过创建 windows linux subsystem 来模拟 Linux 环境,或者根据具体三方依赖包的官方网站说明,来在 Windows 环境下多独立安装。
?
ModelScope 模型的使用依赖于互联网连接吗?
ModelScope 通过 Model Hub 和 Dataset Hub 来进行模型和数据集的管理和版本管理。因此要获取最好的用户体验,我们建议尽量在联网环境下使用。这能确保您使用的模型和数据集都能是最新的版本,获取最好的模型和数据集。另一方面,如果您使用 ModelScope 开源模型的环境没有网络连接,那也可以通过将模型下载到本地,再从本地直接加载的方式来使用。
?
环境 mac os x86,系统 Ventura 13 Beta 13,环境安装报错“missing...
MBP 新环境碰到这个问题,您需要执行 xcode-select --install。
?
基础大模型下载下来之后如何支持下游模型?
针对大模型您可以尝试 zeroshot,fine tune 后会有更好的表现。
?
多卡环境,如何指定卡推理?
推理可以传递参数 device,pipeline 参数: device 设置 'gpu:0' 即可。
?
zero-shot 分类模型可以用下游的自己的数据作微调吗?
可以。如果您的数据 label 变化较大,出于追求模型效果,classifier 可以 init weight 处理。如果您的数据 label 变化不大,可以直接在 classifier 上继续微调。
?
在哪里可以看得到 ModelScope 教程和实战资料?
您可以查看 ModelScope 实战训练营,点击报名后即可查看所有录制的视频课程。
?
ModelScope 有没有已经搭好的 docker 镜像,以及我应该在哪里下载使用?
ModelScope 提供 GPU 镜像和 CPU 镜像,具体可在环境安装内查看最新版本镜像信息。
?
ModelScope 是否支持算法评测?
目前 API 支持单个模型的 finetune 和评测,批量评测功能还在持续建设中,您暂时可以写个脚本来实现。
?
ModelScope 是否会推出纯离线的 SDK 版本?
现在模型大部分还是需要基于服务端的算力支持,纯端上的模型的剪枝和转化可以需要用一些工具来解决,这部分工具能力还在规划开放中。
?
通过 SDK 上传数据集或模型时,报错“requests.exceptions.HTTPError:...
您可以先检查下当前的 Library 版本,确认下是否为最新。然后检查下采用的 token 是否为 SDK token。若还不能解决该问题,请联系官方协助您解决。
?
使用官方镜像,但加载模型过程中会存在报错,应该怎么解决?
您可以先通过 pip list 等方式,对照环境安装内版本号看当前镜像是否为最新版本,若非最新版本,可更新后重试。若重试依然无法解决问题,请通过官方钉钉群联系我们。
?
模型大文件上传遇到问题如何解决?
模型文件一般都比较大,我们通过 git lfs 管理模型中的大文件,首先确保您安装了正确版本的 git-lfs, 另外请确保您的大文件在文件列表中(.gitattributes 文件).
<
关于我们
>
通义云启(杭州)信息技术有限公司是一家位于中国杭州的高科技企业,专注于提供专业的信息技术服务和解决方案。公司秉承创新、合作、共赢的理念,致力于通过先进的技术手段,帮助客户实现数字化转型和业务增长。通义云启拥有一支经验丰富、技术精湛的团队,为客户提供定制化、高质量的服务,涵盖软件开发、系统集成、云计算、大数据等多个领域。我们期待与您携手合作,共创美好未来。
联系信息
服务时间: 00:00:00至24:00:00
邮箱: contact@modelscope.cn
<
最可能同场景使用的其他API
>