在付费 AI 编程助手领域,Cursor、Windsurf、GitHub Copilot 等工具表现出色,但每月持续的订阅费用对不少开发者来说是一笔不小的负担。本文将介绍如何通过 VS Code Cline 扩展 + Ollama + DeepSeek R1 组合,搭建一个免费的 AI 编程环境,大幅提升开发效率。
Cline:开源的 VS Code AI 编程扩展
Cline 是一个开源的 VS Code 扩展,能够根据用户的指令或代码输入提供多种辅助功能,从而大幅提升开发效率。与其类似的 VS Code 扩展还有 Continue 和 Roo Code,这些工具均经过验证,并拥有活跃的社区支持。
Cline 的优缺点
- 优点:开源、免费、功能丰富。
- 缺点:缺乏 Tab 自动补全功能,建议配合 Continue 使用。
根据 openrouter.ai 平台的 token 使用情况,Cline 和 Roo Code 的 token 使用量遥遥领先。
DeepSeek R1 本地部署
为什么选择本地部署?
- 免费及低成本运营:与需要每月订阅的 Cursor AI 不同,Cline 是开源的,DeepSeek R1 也可以在本地运行,无需额外费用。
- 数据安全:所有 AI 计算都在本地进行,代码和数据不会传输到外部服务器,安全性更高。
- 快速响应:DeepSeek R1 直接在硬件上运行,无需网络延迟,响应速度更快。
需要注意的是,个人 PC 上运行的轻量化模型无法与 API 提供的完整参数模型相比,但对于大多数个人开发者来说,本地运行方式值得尝试。
安装 Ollama
Ollama 是一个帮助在本地轻松运行大型语言模型的工具,如 DeepSeek R1。
下载 DeepSeek R1 模型
下载完成后,模型会自动在本地启动,可通过 http://localhost:11434
访问。
VS Code 和 Cline 设置
安装 VS Code 扩展
在 VS Code 扩展市场中搜索 Cline 并安装。
在 Cline 中连接 Ollama(本地 DeepSeek R1)
- 打开 VS Code 中的 Cline 设置。
- 在 API Provider 列表中选择 Ollama。
- 在
Base URL
字段中输入http://localhost:11434
,然后选择 DeepSeek R1 模型(如deepseek-r1:14b
)。
如果出现 MCP hub not available
错误,重启 VS Code 即可解决。
测试与优化
设置完成后,使用 Cline 发送 prompt 测试响应情况。如果 CPU 负载过高且响应缓慢,建议尝试低版本模型。
现在,你也可以以每月 $0 的成本体验 Cursor 级别的 AI 编程!如果在设置过程中遇到问题,可以参考 Ollama 官方文档或 Cline GitHub 问题页面获取帮助。