Continue 使用指南
Continue 是目前最受欢迎的**开源** AI 编程助手插件。与 GitHub Copilot 不同,Continue 允许你自由连接任何 LLM 模型——无论是云端的 GPT-4/Claude 3.5 Sonnet,还是本地运行的 DeepSeek/Llama 3。这使它成为隐私敏感型开发者或希望低成本使用 AI 的首选。
5分钟
2025-12-26
AI编程代码助手开发工具Continue
Continue 使用指南
Continue 是目前最受欢迎的开源 AI 编程助手插件。与 GitHub Copilot 不同,Continue 允许你自由连接任何 LLM 模型——无论是云端的 GPT-4/Claude 3.5 Sonnet,还是本地运行的 DeepSeek/Llama 3。这使它成为隐私敏感型开发者或希望低成本使用 AI 的首选。
1. 核心亮点
- 模型自由切换:你可以用它连接 OpenAI、Anthropic、DeepSeek 的 API,也可以通过 Ollama 连接本地模型,无需额外付费。
- 开源透明:完全开源,数据隐私可控,不会默认上传代码到云端。
- 上下文感知:支持通过
@符号引用文件、文件夹、代码块,让 AI 基于你的项目上下文回答问题。 - 多 IDE 支持:支持 VS Code 和 JetBrains (IntelliJ IDEA, PyCharm 等)。
2. 安装与配置
1. 安装插件
- 打开 VS Code 扩展市场,搜索
Continue并安装(App 图标是一个快进按钮>>)。
2. 初始化配置
安装后,点击左侧边栏的 Continue 图标。
- 快速体验:首次启动时,它会提供一些免费试用的模型(如 Llama 3 70B via Groq)。
- 添加自己的模型:点击设置(齿轮图标),会打开
config.json配置文件。
3. 接入手把手配置
配置 OpenAI/DeepSeek API 示例 (config.json):
{
"models": [
{
"title": "DeepSeek-V3",
"provider": "openai",
"model": "deepseek-chat",
"apiKey": "你的_API_KEY",
"apiBase": "https://api.deepseek.com"
},
{
"title": "GPT-4o",
"provider": "openai",
"model": "gpt-4o",
"apiKey": "你的_OPENAI_KEY"
}
],
"tabAutocompleteModel": {
"title": "StarCoder2 3B",
"provider": "ollama",
"model": "starcoder2:3b"
}
}
3. 核心功能详解
3.1 AI 对话 (Chat)
在侧边栏与 AI 聊天。
- 引用上下文:输入
@,然后选择Files、Code或Folder。- 例如:
@server.py 请解释这个文件的主要逻辑。
- 例如:
- 快捷键:
Cmd/Ctrl + L将选中的代码片段发送到对话框。
3.2 代码自动补全 (Autocomplete)
Continue 支持类似 Copilot 的行内自动补全。
- 通常建议使用一个小参数量的本地模型(如
starcoder2:3b或deepseek-coder:1.3b)来实现低延迟补全。 - 在
config.json的tabAutocompleteModel字段配置。
3.3 行内编辑 (Edit)
选中一段代码,按下 Cmd/Ctrl + I,输入指令,AI 会直接修改当前代码并在编辑器中显示 Diff(差异对比)。
- 示例:选中一个函数,输入“为这段代码添加详细注释”或“将这里的循环改为推导式”。
4. 最佳实践:本地化与隐私方案
如果你在公司内部开发,不能将代码传到外网:
- 下载安装 Ollama。
- 拉取模型:
ollama run deepseek-coder-v2。 - 在 Continue 中配置 provider 为
ollama。 这样,所有的代码补全和问答都完全在本地运行,数据不出内网,绝对安全。
Continue 是开发者掌握 AI 工具链的必经之路,它给了你最大的自由度和掌控权。