
Ollama Python 调用:本地大模型的高效交互方式
今天,阿里云百炼正式上线了 MCP(Model Context Protocol)服务的完整平台能力,覆盖从服务注册、云托管,到 Agent 调用、流程组合的全生命周期。
MCP由Anthropic提出,类似于“AI领域的HTTP协议”,支持跨模型、跨平台调用服务,无需开发者自行管理资源或编写复杂代码,仅需5分钟即可构建连接MCP服务的智能体(Agent)。
该服务提供两种模式:官方托管(集成高德、Notion等50余款三方工具)与自建服务,覆盖服务注册、调用、组合全流程,支持弹性按量付费,显著降低开发门槛。相较于传统Plugin私有接口,MCP具备开放性、通用性及多工具协同优势,例如用户可快速搭建结合天气查询、路径规划、网页抓取等功能的复杂Agent应用。
阿里云通过百炼平台整合200余款大模型及算力资源,赋能企业定制场景化AI工具,如旅游行程规划、自动化质检等,助力千行百业实现生产级AI落地。截至2025年1月,通义API调用企业及开发者已超29万,未来还将通过Agent Store开放生态,加速AI应用普惠。
https://bailian.console.aliyun.com/
很不错!这事儿算是一个转变:工具调用,不再是模型厂的「私有功能」,而是被抽象为一种通用能力,并具备了完整的产品形态。
换句话说
百炼把 MCP Client 和 MCP Server 封在了一起,放在了 MAAS 上
于是,第一时间我上手试了试,本文也会顺着讲清楚三件事:
这里我测了两个典型的 Agent 例子,分别是「导航推荐助手」和「网页抓取助手」。
在百炼上,可以通过多种方式,构建 Agent
这是一个简单的智能体应用,目标是:根据用户的旅行目的地,生成当天的城市游推荐方案,并串联天气、位置、美食和导航任务。
整个过程没有写代码,只是在百炼广场上开通高德地图(Amap Maps)的 MCP 服务,然后在「创建智能体应用」后,拉取这个 MCP 服务。
输入一个城市,比如“西安”,Agent 会自动:
整个任务链由 Agent 自动执行,所有服务来自百炼托管的 MCP 接口,无需我们部署服务器、写 API 代码或解析参数文档。
这是一个稍微复杂的 Case,通过构建工作流,让 AI 帮我取抓取网页,然后进行页面提取,最后保存在 Notion 里。
从流程上来说,就是
这一套工具链同样通过 MCP 服务构建,串联了「Firecrawl」、大模型本身的处理,以及「Notion」等多个内容,全部可复用、可组合,也不依赖特定模型。
在百炼 MCP 平台上,开发者可以通过两种方式使用 MCP 服务。
地址在这里:https://bailian.console.aliyun.com/?tab=app#/mcp-manage
目前,百炼已经上线了 15 款 MCP 的云服务,并提供了 61 款社区 MCP 的介绍,更多的还在路上。
以上服务已部署,更多服务在路上
这些都是社区 MCP
这种方式适合绝大多数场景,几乎“零门槛”:
服务由百炼托管在函数计算上,调用即加载、通过 API 按量计费。
上面测试的高德导航、网页抓取等场景,都是走这一套流程。开发者不需要管部署,不需要写 Glue Code,调用非常稳定,尤其适合原型验证和组合式 Agent 设计。
据知情人士透露
百炼MCP服务将是阿里AI商业化重要落棋。
未来,阿里的服务,以及更多的三方应用,都将逐步上线到百炼,来满足任意场景Agent的开发需求。
如果你有自己的 API,或者需要引入社区里的 MCP server(比如从 GitHub 上 clone 的开源项目),也可以走“自建部署”的路径:
npx
安装 或 Python 脚本(Python 暂还是灰的)bailian.console.aliyun.com/?tab=app#/mcp-manage/create
这条路径稍微偏“开发者向”,但整个过程比传统的服务器部署方式要简单得多:
比较适合企业开发者将内部服务 MCP 化,或技术团队接入外部服务做统一封装。一句话总结就是:
以前做一个“插件”要写代码、跑服务、调结构,现在开个服务就是点几下配置。
我相信,很多人还会有个反应:这不就是 Plugin?
对此,我也特意和百炼的朋友聊了这个问题,得到的回答很明确:
Plugin 是为某个模型写的私有接口描述;MCP 是跨模型、跨平台可复用的通用协议。
差别主要体现在三个层面:
Plugin 是各厂商其自己模型设计的,无法直接复用到其他模型平台。而 MCP 的目标是让所有模型理解同一种“服务语言”。无论 Claude、GPT、百炼自有模型,理论上都能读懂相同的 MCP 接口描述,并做出合理调度。
MCP 和 Plugin 的区别 be like
Plugin 开发者需要自己部署服务,并管理调用、安全、负载等细节。MCP 在百炼的实现中,服务由平台托管,开发者只需提供逻辑,其他都交由平台自动完成(如函数计算、鉴权转发等)。
Plugin 更像是“硬编码调用”:定义好 schema,模型识别后调用一次函数。MCP 支持的是多步调度、多工具组合,更适合 Agent 执行复杂任务时使用。
在我看来
MCP 是对 Plugin/Function Calling/Tool Using 再封装了一轮,这样迁移环境的时候,节省了一部分调配的功夫。
在 MCP 之前,让 AI 调用外部工具,更像是一项繁琐的工程任务,你需要写描述、调接口、配参数、部署服务等等…现在,这些正在被重新定义为一种标准化的、平台化的能力。
在我看来,这是一种焦点的转移: