发布于 2025-03-10 35 阅读
0

如何在 Visual Studio Code 中通过 Cline 或 Roo Code 免费使用 DeepSeek R1

如果你正在寻找一款推理能力出色且开源且免费的人工智能那么新推出的DeepSeek R1是一个不错的选择。它与 GPT-4、o1-mini、Claude 3.5 等模型相媲美,并且表现优于它们。我测试过它,赞不绝口!

如果您想在Visual Studio Code中直接运行它作为类似于 GitHub Copilot 的代码代理,而无需花一分钱,请跟着我向您展示如何使用LM StudioOllamaJan等工具来执行此操作。


为什么 DeepSeek R1 最近受到如此热议?

  • 它是免费且开源的:与许多收费昂贵的模型不同,您可以免费使用它。它甚至可以在https://chat.deepseek.com上进行聊天。

  • 性能:它在涉及逻辑、数学甚至代码生成(这是我最喜欢的部分)的任务中与其他模型竞争并超越其他模型。

  • 多个版本:要在本地运行(LLM),有从 1.5B 到 70B 参数的模型,因此您可以根据您的硬件选择最适合您 PC 的模型。

  • 易于集成:您可以使用ClineRoo Code等扩展将其连接到 VSCode 。

  • 无成本:如果您在本地运行,则无需支付代币或 API 费用。建议使用显卡,因为仅依靠 CPU 运行速度较慢。


开始前的重要提示

  • 节省资源:如果您的电脑性能不是很强大,请坚持使用较小的模型(1.5B 或 7B 参数)或量化版本。

  • RAM 计算器:使用LLM Calc找出您所需的最小 RAM。

  • 隐私:在本地运行意味着您的数据保留在您的电脑上,不会进入外部服务器。

  • 无成本:本地运行是免费的,但如果您想使用 DeepSeek API,则需要支付代币。好消息是他们的价格比竞争对手低得多。


选择哪种型号?这取决于您的电脑!

DeepSeek R1 有多个版本,选择取决于您的硬件:

  • 1.5B参数

    • 所需 RAM:~4 GB。

    • GPU:集成(如 NVIDIA GTX 1050)或现代 CPU。

    • 用途:简单的任务和普通的电脑。

  • 7B参数

    • 所需 RAM:〜8-10 GB。

    • GPU:专用(如 NVIDIA GTX 1660 或更好)。

    • 用途:中级任务和具有更好硬件的PC。

  • 70B参数

    • 所需 RAM:~40 GB。

    • GPU:高端(如 NVIDIA RTX 3090 或更高版本)。

    • 用途:复杂的任务和超强大的个人电脑。


如何在本地运行 DeepSeek R1


1. 使用 LM Studio

  • 下载并安装 LM Studio:只需访问LM Studio网站并下载适合您系统的版本。

  • 下载 DeepSeek R1 模型:在 LM Studio 中,转到“发现”选项卡,搜索“DeepSeek R1”,然后选择与您的系统最兼容的版本。如果您使用的是搭载 Apple 处理器的 MacBook,请保持搜索栏旁边的MLX选项处于选中状态(这些版本针对 Apple 硬件进行了优化)。对于 Windows 或 Linux,请选择GGUF选项。

  • 加载模型:下载完成后,进入本地模型,选择DeepSeek R1,点击加载

  • 启动本地服务器:在开发人员选项卡中,启用启动服务器。它将开始运行模型http://localhost:1234

  • 继续执行步骤 4与 VSCode 集成


2.使用Ollama

  • 安装 Ollama :从Ollama网站下载并安装。

  • 下载模型:在终端中,运行*:

   ollama pull deepseek-r1  

*这是主要模型;如果您想要较小的模型,请转到https://ollama.com/library/deepseek-r1并查看在终端中运行哪个命令。

  • 启动服务器:在终端中执行:

   ollama serve  

该命令将开始运行模型http://localhost:11434

  • 继续执行步骤 4与 VSCode 集成


3. 使用 Jan

  • 下载并安装 Jan :在Jan网站上选择适合您系统的版本。

  • 下载模型:我在 Jan 中无法直接找到 DeepSeek R1。因此,我前往Hugging Face网站并手动搜索“unsloth gguf deepseek r1”。我找到了所需的版本,单击“使用此模型”按钮,并选择 Jan 作为选项。模型在 Jan 中自动打开,然后我下载了它。

  • 加载模型:下载后,选择模型,点击加载

  • 启动服务器:Jan 自动启动服务器,通常在http://localhost:1337

  • 继续执行步骤 4与 VSCode 集成


4. 与 VSCode 集成

  • 安装扩展:在 VSCode 中,打开扩展选项卡并安装 Cline 或 Roo Code。


  • 为 Jan 或 LM Studio 配置扩展: ClineRoo Code的配置实际上相同。请按照以下步骤操作:

    • 点击扩展并访问“设置”

    • API 提供程序中,选择“LM Studio”

    • 基本 URL字段中,输入在 Jan 或 LM Studio 中配置的 URL。

    • 如果您只有一个可用模型,则模型 ID 字段将自动填充。否则,请手动选择您下载的DeepSeek模型。

    • 单击“完成”即可结束。


  • 配置 Ollama 的扩展

    • 点击扩展并访问“设置”

    • API 提供程序中,选择“Ollama”

    • Base URL字段中,输入在 Ollama 中配置的 URL。

    • 如果您只有一个可用模型,则模型 ID 字段将自动填充。否则,请手动选择您下载的DeepSeek模型。

    • 单击“完成”即可结束。

  • 集成完成,现在只需享受 Cline 或 Roo Code 的功能。