
一文讲透 AI Agent 与 AI Workflow 的区别和深度解析:从自动化到智能化的演进
本次Cline+DeekSeek-R1的实战任务是做一个"今天吃什么的"小应用,解决的痛点就是每天中午的外卖不知道点什么,修改一下代码也可以成为你春节期间吃什么的一个指南,使用纯 HTML+JS实现,整体过程体验相当的丝滑!文中会有我本地使用的整个完整的配置流程以及视频演示我的配置—我本地使用是一台Windows主机作为Server,Windows主机带了一张4090D的显卡,配置信息如下:
输出 Tokens大约是每秒36 tokens左如图所示,(ChatGPT-3.5 每秒生成速度仅为40 个token)
然后使用LM Studio加载模型(下文有详细的介绍为什么不使用ollama),开启它的API调用,然后在同一个局域网下的MAC上使用最新版本的Cline来调用(之所以使用MAC是因为我本人不太会也不习惯使用Windows)实际的输出速度效果可以在下面视频视频段落中查看, 如果你查看具体的配置要求,可以看一下这个显卡和模型对照的天梯图:KCORES 大语言模型推理专用显存天梯如果你是笔记本用户或者是使用AMD显卡或者显卡不太行的可以查看这里在本地进行体验测试:怎么在家用笔记本上轻松部署和使用DeepSeek R1?视频演示—为什么选择本地部署DeepSeek R1?—这个问题也是一个读者朋友在上一篇文章里面的留言留言,我直接把截图发上来
这里再整理一下:
LM Studio 是一款专门为本地运行大语言模型(LLM)设计的桌面软件。它的最大特点是让复杂的 LLM 部署变得简单直观。说再直白一点:它就是一个智能模型的"应用商店"加"播放器"的结合体。
打开软件后就能看到一个整洁的界面,上面列出了许多热门的开源模型供你选择,比如 Llama 2、Vicuna、Mistral,DeepSeek等。选择模型就像在应用商店下载应用一样简单,只需点击几下就能完成。软件会自动判断你的电脑配置,并推荐适合你硬件条件的模型版本。
更贴心的是,LM Studio 提供了图形化的设置界面。你可以像调整音响设备一样,轻松地调节模型运行时使用多少 GPU 或 CPU 资源。还可以设定模型的"性格"- 也就是系统提示(System Prompt),告诉它应该以什么样的风格和专业知识来回答问题。
你还能直接通过图形化界面创建 API调用配置API的调用和查看API的调用日志。
所以你如果是初次接触本地模型,建议你直接使用这个图形界面,会方便直观很多,链接地址: https://lmstudio.ai相关问题—如何在配置Cline调用本地模型? 可以查看这里:再见Cursor! Cline+DeepSeek-V3 双雄组合引爆AI编程| 最强配置方案+代码实例