所有文章 > AI驱动 > Cline+DeepSeek-R1纯本地开发实战体验: 比德芙还丝滑!我的部署和使用全流程
Cline+DeepSeek-R1纯本地开发实战体验: 比德芙还丝滑!我的部署和使用全流程

Cline+DeepSeek-R1纯本地开发实战体验: 比德芙还丝滑!我的部署和使用全流程

本次Cline+DeekSeek-R1的实战任务

本次Cline+DeekSeek-R1的实战任务是做一个"今天吃什么的"小应用,解决的痛点就是每天中午的外卖不知道点什么,修改一下代码也可以成为你春节期间吃什么的一个指南,使用纯 HTML+JS实现,整体过程体验相当的丝滑!文中会有我本地使用的整个完整的配置流程以及视频演示我的配置—我本地使用是一台Windows主机作为Server,Windows主机带了一张4090D的显卡,配置信息如下:

image

模型使用的是Deepseek-R1-Distill-Qwen-32B-GGUF模型

输出 Tokens大约是每秒36 tokens左如图所示,(ChatGPT-3.5 每秒生成速度仅为40 个token)

image

然后使用LM Studio加载模型(下文有详细的介绍为什么不使用ollama),开启它的API调用,然后在同一个局域网下的MAC上使用最新版本的Cline来调用(之所以使用MAC是因为我本人不太会也不习惯使用Windows)实际的输出速度效果可以在下面视频视频段落中查看, 如果你查看具体的配置要求,可以看一下这个显卡和模型对照的天梯图:KCORES 大语言模型推理专用显存天梯如果你是笔记本用户或者是使用AMD显卡或者显卡不太行的可以查看这里在本地进行体验测试:怎么在家用笔记本上轻松部署和使用DeepSeek R1?视频演示—为什么选择本地部署DeepSeek R1?—这个问题也是一个读者朋友在上一篇文章里面的留言留言,我直接把截图发上来

image

这里再整理一下:

  • 数据安全与隐私保护: 将数据存储自己的设备上避免数据泄露和隐私风险,对于处理敏感信息的企业和个人尤为重要。
  • 降低成本: 避免了云端API调用费用,长期使用成本更低,尤其适合需要频繁调用LLM的用户。
  • 提升性能: 本地部署可以减少网络延迟,提高模型响应速度,提升用户体验。
  • 个性化定制:根据自身需求对本地部署的LLM进行微调和定制。
  • 离线可用性: 没有网络连接的情况下访问和使用LLM,这对于某些特定场景至关重要。
  • 自定义模型实验: 提供了更大的自由度来试验和修改LLM,从而可以更好地满足个性化需求。
  • 减少对外部API的依赖: 独立运行LLM,无需依赖第三方API,提高了系统的稳定性和可靠性。

为什么是LM Studio不是ollama

LM Studio 是一款专门为本地运行大语言模型(LLM)设计的桌面软件。它的最大特点是让复杂的 LLM 部署变得简单直观。说再直白一点:它就是一个智能模型的"应用商店"加"播放器"的结合体。

image

打开软件后就能看到一个整洁的界面,上面列出了许多热门的开源模型供你选择,比如 Llama 2、Vicuna、Mistral,DeepSeek等。选择模型就像在应用商店下载应用一样简单,只需点击几下就能完成。软件会自动判断你的电脑配置,并推荐适合你硬件条件的模型版本。

image

更贴心的是,LM Studio 提供了图形化的设置界面。你可以像调整音响设备一样,轻松地调节模型运行时使用多少 GPU 或 CPU 资源。还可以设定模型的"性格"- 也就是系统提示(System Prompt),告诉它应该以什么样的风格和专业知识来回答问题。

image

你还能直接通过图形化界面创建 API调用配置API的调用和查看API的调用日志。

image

所以你如果是初次接触本地模型,建议你直接使用这个图形界面,会方便直观很多,链接地址: https://lmstudio.ai相关问题—如何在配置Cline调用本地模型? 可以查看这里:再见Cursor! Cline+DeepSeek-V3 双雄组合引爆AI编程| 最强配置方案+代码实例

image

原文转载自:https://mp.weixin.qq.com/s/DmbpOwAsQz4yax78P3mV1g

#你可能也喜欢这些API文章!