PyCharm 连接本地 DeepSeek R1 实现 AI 编程

大家好,欢迎来到今天的技术分享!本文将详细介绍如何使用 PyCharm 接入 DeepSeek R1 实现 AI 编程。即使你是编程新手,也能轻松掌握。让我们开始吧!

一、为什么要在本地搭建 DeepSeek R1 模型?

在开始搭建之前,先了解一下这样做的好处。

1. 高效学习与知识库管理

在本地搭建大模型不仅方便管理个人知识库,还能显著提升编程学习效率。无论是 Python、Java 还是其他编程语言,DeepSeek R1 都能成为你学习路上的得力助手。

2. 零成本搭建

DeepSeek 最近开源了推理模型 R1,完全免费且性能强劲。我们使用的 Python 开发环境是 PyCharm 社区版,同样免费。推荐的插件 CodeGPT 也是免费的,UI 设计简洁美观,使用体验极佳。按照本文的方法搭建,无需任何费用,真正的零成本上手!

3. 低配置也能流畅运行

考虑到大部分用户的电脑配置,本文在搭建方法上做了优化,将电脑配置要求降到最低。即使是普通电脑,也能流畅运行 DeepSeek R1,无需担心卡顿问题。

二、框架选择

本次搭建的框架组合是:DeepSeek – r1:1.5b + PyCharm 专业版 + CodeGPT 插件。

DeepSeek – r1 共有 7 个不同版本,随着尺寸参数变大,对电脑的要求也会提高,本地回复延时也会变长。对于没有大显存 GPU 的用户,强烈推荐安装 1.5b 尺寸的版本,这个版本普通电脑无 GPU 也能流畅运行,延时几乎在 1 – 2 秒。而且,DeepSeek – r1 能爆火出圈的一个重要原因就是,小尺寸模型的回答质量也很高。

DeepSeek – R1 回复问题主要包括两部分:思考(Thinking)和正式回答(Answer)。在每次正式回答前,会有一个很长的思考链。之前的大模型在小尺寸参数(如 1.5b)回复 Token 有些简短,质量一般,但这次 DeepSeek – r1:1.5b 解决了回复 Token 数过短,效果不好的难题。

DeepSeek R1

了解了框架选择的原因,下面就进入激动人心的搭建步骤环节!

三、详细搭建步骤

为了让从未接触过编程的用户也能顺利复现,本文将步骤写得尽可能细致,大家跟着做就行。

1. 安装 PyCharm

PyCharm 下载后,基本都是一路点击下一步,按照默认设置安装即可。

2. 下载 Ollama

安装 deepseek – r1:1.5b,执行命令:

bash
ollama pull deepseek – r1:1.5b

下载完成后即可安装,非常方便。

Ollama

下载安装后打开软件,输入 ollama list 可以查看当前安装的本地大模型。

3. 接入到 PyCharm

首先下载插件 CodeGPT,打开 PyCharm,找到文件(File)- 设置(Settings)- 插件(Plugins),输入 CodeGPT,点击安装即可。

安装后在工具(Tools)下会出现 CodeGPT,点击 Providers,找到 Ollama(Local),再到对应位置选择刚刚安装的 deepseek – r1:1.5b,点击 OK 就大功告成了。

现在,你就可以愉快地在 PyCharm 中使用 DeepSeek – r1 加速编程学习了!左侧是代码编辑界面,右侧是 r1 大模型,直接对话式提问,省去了来回切换不同页面的麻烦。

另外,CodeGPT 插件显示的 Tokens 数只是一个数字统计,不会产生任何费用,因为使用的是本地电脑的算力,大家可以放心使用。

四、总结

通过今天的教程,我们成功在本地运行了大模型,实现了免费、便捷的编程学习和个人知识管理。总结一下本次搭建的要点:

  1. 选型推荐:deepseek – r1:1.5b + PyCharm 社区版 + CodeGPT 插件,这个组合性价比超高,适合大多数人。
  2. 便捷交互:在 PyCharm 右侧直接对话 DeepSeek – R1,快速辅助编程,提高学习和工作效率。
  3. 快速响应:几乎 1 – 2 秒响应,完全本地快速运行,无额外费用,让你用得省心又省力。

👉 野卡 | 一分钟注册,轻松订阅海外线上服务

如果这篇文章对你有帮助,欢迎点赞、转发和收藏。我们下篇文章再见!

上一篇 18小时前
下一篇 14小时前

相关推荐