支持本地模型的免费 AI 代码助手:Continue 插件使用指南

最近,我体验了 Cursor,它的 Cursor Tab 和 @Codebase 功能确实非常强大,但 20 美元/月的价格让不少开发者望而却步。于是,我开始寻找一些免费的替代方案,最终发现了 Continue——一款支持直连本地模型的开源 AI 代码助手插件。

为什么选择 Continue?

Continue 是一款专为 VSCode 和 JetBrains 开发的插件。它不直接提供 AI 模型,但支持多种 AI 模型的接入方式,包括商业模型和本地模型。这意味着你可以根据自己的需求灵活选择模型,甚至完全在本地运行 AI。

主要功能

  • 多模型支持:可以接入 OpenAI、DeepSeek 等商业模型,也支持本地模型。
  • 本地运行:如果你的硬件性能足够,可以在本地运行 3B 级别的小模型,实现零成本的 AI 代码补全。
  • 自动补全与 Chat 功能:支持代码补全和对话式编程,提升开发效率。

安装与配置

安装步骤

  1. 打开 VS Code,进入扩展市场。
  2. 搜索并安装 Continue 插件。

👉 野卡 | 一分钟注册,轻松订阅海外线上服务

模型配置

Continue 支持多种模型,根据不同的使用场景,配置也有所不同。以下是推荐的配置方式:

在线模型推荐:DeepSeek

DeepSeek 是一个性价比高的选择,支持 Chat 和 AutoComplete 功能,非常适合个人开发者。

  1. DeepSeek 官网 注册并获取 API Key。
  2. 在 Continue 中配置如下 JSON:

json
{
“tabAutocompleteModel”: {
“title”: “DeepSeek Coder”,
“provider”: “deepseek”,
“model”: “deepseek-coder”,
“apiKey”: “[API_KEY]”
}
}

本地模型推荐:StarCoder2-3B

如果你希望完全在本地运行 AI 模型,推荐使用 StarCoder2-3B。它速度快,效果佳,适合自动补全功能。

  1. 下载 StarCoder2-3B 模型,并将其加载到 LM Studio 或 Ollama 中。
  2. 在 Continue 中配置本地模型的地址和端口。

使用体验

在线模型

在线模型的表现非常出色,尤其是 DeepSeek,代码补全速度与商业插件相当,Chat 功能也能提供准确的回答。

本地模型

在 Macbook Pro M2 和 RTX 3070Ti 上,本地模型的响应速度非常快,几乎与云端解决方案无异。CPU 环境下虽然稍慢,但依然流畅。本地运行的最大优势是数据完全掌控在自己手中,无需担心隐私问题。

小结

Continue 是一款非常适合开发者的 AI 代码助手插件,特别是那些对隐私和安全性有较高要求的用户。通过灵活配置商业模型或本地模型,它能够帮助你在开发过程中大幅提升效率。

如果你希望尝试 AI 驱动的代码补全,并且希望数据完全本地化处理,Continue 无疑是一个值得尝试的选择。

上一篇 2025年6月7日
下一篇 2025年6月8日

相关推荐