最近,我体验了 Cursor,它的 Cursor Tab 和 @Codebase 功能确实非常强大,但 20 美元/月的价格让不少开发者望而却步。于是,我开始寻找一些免费的替代方案,最终发现了 Continue——一款支持直连本地模型的开源 AI 代码助手插件。
为什么选择 Continue?
Continue 是一款专为 VSCode 和 JetBrains 开发的插件。它不直接提供 AI 模型,但支持多种 AI 模型的接入方式,包括商业模型和本地模型。这意味着你可以根据自己的需求灵活选择模型,甚至完全在本地运行 AI。
主要功能
- 多模型支持:可以接入 OpenAI、DeepSeek 等商业模型,也支持本地模型。
- 本地运行:如果你的硬件性能足够,可以在本地运行 3B 级别的小模型,实现零成本的 AI 代码补全。
- 自动补全与 Chat 功能:支持代码补全和对话式编程,提升开发效率。
安装与配置
安装步骤
- 打开 VS Code,进入扩展市场。
- 搜索并安装 Continue 插件。
模型配置
Continue 支持多种模型,根据不同的使用场景,配置也有所不同。以下是推荐的配置方式:
在线模型推荐:DeepSeek
DeepSeek 是一个性价比高的选择,支持 Chat 和 AutoComplete 功能,非常适合个人开发者。
- 在 DeepSeek 官网 注册并获取 API Key。
- 在 Continue 中配置如下 JSON:
json
{
“tabAutocompleteModel”: {
“title”: “DeepSeek Coder”,
“provider”: “deepseek”,
“model”: “deepseek-coder”,
“apiKey”: “[API_KEY]”
}
}
本地模型推荐:StarCoder2-3B
如果你希望完全在本地运行 AI 模型,推荐使用 StarCoder2-3B。它速度快,效果佳,适合自动补全功能。
- 下载 StarCoder2-3B 模型,并将其加载到 LM Studio 或 Ollama 中。
- 在 Continue 中配置本地模型的地址和端口。
使用体验
在线模型
在线模型的表现非常出色,尤其是 DeepSeek,代码补全速度与商业插件相当,Chat 功能也能提供准确的回答。
本地模型
在 Macbook Pro M2 和 RTX 3070Ti 上,本地模型的响应速度非常快,几乎与云端解决方案无异。CPU 环境下虽然稍慢,但依然流畅。本地运行的最大优势是数据完全掌控在自己手中,无需担心隐私问题。
小结
Continue 是一款非常适合开发者的 AI 代码助手插件,特别是那些对隐私和安全性有较高要求的用户。通过灵活配置商业模型或本地模型,它能够帮助你在开发过程中大幅提升效率。
如果你希望尝试 AI 驱动的代码补全,并且希望数据完全本地化处理,Continue 无疑是一个值得尝试的选择。