大家好,我是六哥,欢迎来到今天的技术分享!今天我们将探讨如何使用 PyCharm 接入 DeepSeek R1 实现 AI 编程。无论你是编程新手还是经验丰富的开发者,这个教程都能帮助你轻松上手。话不多说,让我们开始吧!
一、本地搭建 DeepSeek R1 模型的优势
在开始搭建之前,我们先来了解一下为什么值得在本地搭建 DeepSeek R1 模型。
-
高效学习与知识库管理
本地搭建大模型不仅可以方便地管理个人知识库,还能显著提升编程学习效率。无论是 Python、Java 还是其他编程语言,DeepSeek R1 都能成为你学习路上的得力助手。 -
零成本搭建
DeepSeek 最近开源了推理模型 R1,完全免费且性能强劲。我们使用的 Python 开发环境是 PyCharm 社区版,同样免费。推荐的插件 CodeGPT 也是免费的,UI 设计简洁美观,使用体验极佳。按照本文的方法搭建,无需花费一分钱,真正的零成本上手! -
低配置也能流畅运行
考虑到大部分用户的电脑配置,我在搭建方法上进行了优化,将电脑配置要求降到最低。即使是普通电脑,也能流畅运行 DeepSeek R1,完全不用担心卡顿问题。
二、框架选择
本次搭建的框架组合是:DeepSeek – r1:1.5b + PyCharm 专业版 + CodeGPT 插件。
DeepSeek – r1 共有 7 个不同版本,随着尺寸参数增大,对电脑的要求也会提高,本地回复延时也会变长。对于没有大显存 GPU 的用户,强烈推荐安装 1.5b 尺寸的版本,这个版本普通电脑无 GPU 也能流畅运行,延时几乎在 1 – 2 秒。此外,DeepSeek – r1 之所以爆火出圈,一个重要原因就是小尺寸模型的回答质量也非常高。
简单介绍一下 DeepSeek – R1,它回复问题主要包括两部分:思考(Thinking)和正式回答(Answer)。在每次正式回答前,会有一个很长的思考链。之前的大模型在小尺寸参数(如 1.5b)时回复 Token 较短,质量一般,但 DeepSeek – r1:1.5b 解决了这一难题。
了解了框架选择的原因,下面我们进入详细的搭建步骤。
三、详细搭建步骤
为了让从未接触编程的朋友也能顺利复现,我会把步骤写得尽可能细致,大家跟着做就好啦!
1. 安装 PyCharm
PyCharm 下载后,基本都是一路点击下一步,按照默认设置安装即可,这里不再赘述。
2. 下载 Ollama
安装 deepseek – r1:1.5b,下载 Ollama 软件后,执行以下命令:
bash
ollama pull deepseek – r1:1.5b
即可将模型下载到本地,非常方便。
下载安装后打开软件,输入 ollama list
可以查看当前安装的本地大模型。刚安装 Ollama 时执行这条命令应该是空的。
3. 接入 PyCharm
首先下载插件 CodeGPT,打开 PyCharm,找到文件(File)- 设置(Settings)- 插件(Plugins),输入 CodeGPT,点击安装即可。
安装后在工具(Tools)下会出现 CodeGPT,点击 Providers,找到 Ollama(Local),然后选择刚刚安装的 deepseek – r1:1.5b,点击 OK 就大功告成了。
现在,你就可以在 PyCharm 中愉快地使用 DeepSeek – r1 加速编程学习了!左侧是代码编辑界面,右侧是 R1 大模型,直接对话式提问,省去了来回切换不同页面的麻烦。大家可以感受一下 DeepSeek – r1:1.5b 的回复延时,几乎 1 秒钟就能响应,测试电脑是 pro – m1,响应速度相当给力!
另外,CodeGPT 插件显示的 Tokens 数只是一个数字统计,不会产生任何费用,因为使用的是本地电脑的算力,大家可以放心使用。
四、总结
通过今天的教程,我们成功在本地运行了大模型,实现了免费、便捷的编程学习和个人知识管理。总结一下本次搭建的要点:
- 选型推荐:deepseek – r1:1.5b + PyCharm 社区版 + CodeGPT 插件,这个组合性价比超高,适合大多数人。
- 便捷交互:在 PyCharm 右侧直接对话 DeepSeek – R1,快速辅助编程,提高学习和工作效率。
- 快速响应:几乎 1 – 2 秒响应,完全本地快速运行,无额外费用,让你用得省心又省力。
如果这篇文章对你有帮助,希望你能给我点个关注,来个三连击:点赞、转发和在看。要是能再给我加个⭐️,那就太感谢啦!我们下篇文章再见!