
Ollama Python 调用:本地大模型的高效交互方式
Anthropic发布的MCP协议,能让AI智能体与应用程序连接更顺畅。不少开发者对它感到困惑,其实为Python应用搭建相关服务器并不复杂。在搭建前,先来了解下为何要采用该协议。
若MCP协议成为行业标准,开发人员就必须采用。毕竟手动集成会被AI取代。虽然有人觉得这还早,但搭建相关服务器很轻松,提前掌握就能领先一步。
创建具有所需功能的FastAPI服务器。FastAPI的入门教程要点如下:
pip install uvicorn, fastapi
from fastapi import FastAPI
app = FastAPI()
@app.get("/")
async def root():
return {"message": "MCP is super cool"}
对于应用程序的每个功能,编写一个 “路径操作”,即分配给特定路径的函数(这里你可以看到路径 “/” 下的 root
函数),执行HTTP操作(GET、POST、PUT、DELETE等)。
uvicorn main:app --reload
就这样!你的FastAPI应用程序在 http://127.0.0.1:8000
可用。现在,让我们将其升级为MCP服务器。
pip install fastapi-mcp
from fastapi import FastAPI
from fastapi_mcp import add_mcp_server
# 你的FastAPI应用
app = FastAPI()
# 将MCP服务器挂载到你的应用上
add_mcp_server(
app, # 你的FastAPI应用
mount_path="/mcp", # 挂载MCP服务器的路径
name="My API MCP", # MCP服务器的名称
)
这样MCP服务器会自动生成,在 http://127.0.0.1:8000/mcp
可用。这个地址可以在Cursor(或者任何支持服务器发送事件(SSE)的AI智能体中配置,据说Cline也即将支持MCP)中进行配置。
在Cursor中配置MCP:
{
"mcpServers": {
"My First MCP server": {
"url": "http://127.0.0.1:8000/mcp"
}
}
}
设置完成后,AI智能体现在可以通过标准化协议与你的应用程序进行交互。你可以通过添加更多暴露应用程序不同功能的端点来扩展MCP服务器。MCP的目标是让集成变得简单,所以不要把它复杂化!从基本功能开始,根据需要进行扩展。使用FastAPI和fastapi – mcp库的好处在于,你在以最少的额外代码添加MCP功能的同时,还能保留FastAPI的所有优点(比如自动生成文档和类型验证)。
《LangChain大模型AI应用开发实践》本书是一本深度探索LangChain框架及其在构建高效AI应用中所扮演角色的权威教程。本书以实战为导向,系统介绍了从LangChain基础到高级应用的全过程,旨在帮助开发者迅速掌握这一强大的工具,解锁人工智能开发的新维度。本书内容围绕LangChain快速入门、Chain结构构建、大模型接入与优化、提示词工程、高级输出解析技术、数据检索增强(RAG)、知识库处理、智能体(agent)开发及其能力拓展等多个层面展开。通过详实的案例分析与步骤解说,读者可以学会整合如ChatGLM等顶尖大模型,运用ChromaDB进行高效的向量检索,以及设计与实现具有记忆功能和上下文感知能力的AI智能体。此外,书中还介绍了如何利用LangChain提升应用响应速度、修复模型输出错误、自定义输出解析器等实用技巧,为开发者提供了丰富的策略与工具。本书主要面向AI开发者、数据科学家、机器学习工程师,以及对自然语言处理和人工智能应用感兴趣的中级和高级技术人员。【5折促销中】购买链接:https://item.jd.com/14848506.html