主题模式
Are you an LLM? You can read better optimized documentation at /ai/llm/cursor.md for this page in Markdown format
2026 Cursor AI 最佳实践:让本地模型 Ollama 成为你的免费编程助手
如果说 Open WebUI 是给普通用户用的“ChatGPT 镜像”,那么 Cursor 就是给程序员用的“手术刀”。
它基于 VS Code 二次开发,但将 AI 植入到了骨髓里。以前我们需要 $20/月 订阅 Cursor Pro 才能享受流畅的代码补全,但在 Ollama 极其成熟的今天,我们完全可以用 DeepSeek-Coder 这种顶级开源模型来“白嫖” Cursor 的交互体验。
🧐 为什么要用本地模型跑 Cursor?
- 隐私安全:你的公司代码、私有密钥永远不会离开本地机器,彻底杜绝代码泄露风险。
- 零延迟:在内网环境下,Tab 键的代码补全几乎是毫秒级的,没有云端 API 的网络抖动。
- 完全免费:不用担心 token 消耗,想怎么问就怎么问。
🛠️ 配置实战:Cursor + Ollama
Cursor 原生支持 OpenAI 格式的 API,而 Ollama 恰好提供了完美的 OpenAI 兼容接口。这简直是天作之合。
第一步:准备模型
确保你的 Ollama 已经下载了适合编程的模型。推荐 DeepSeek Coder V2(代码能力吊打 Llama 3)。
bash
# 在终端运行
ollama pull deepseek-coder第二步:配置 Cursor
- 打开 Cursor,点击右上角的 齿轮图标 (Settings)。
- 在左侧菜单选择 Models。
- 添加自定义模型:
- 在 "Model Names" 下方输入:
deepseek-coder(必须与 Ollama 里的名字一致)。 - 点击 "+" 号添加。
- 修改 API 地址:
- 向下滚动找到 "OpenAI API Key" 区域。
- Base URL:勾选 "Override OpenAI Base URL",填入
http://localhost:11434/v1。 - API Key:填入任意字符(例如
ollama),不能为空。
- 禁用官方功能(可选):
- 为了防止 Cursor 偷偷用它的云端模型,你可以关掉 "Cursor Tab" 或 "Composer" 中不需要的云端特性,或者直接在对话框里手动选择
deepseek-coder模型。
💡 注意:如果你是在远程 VPS 上跑 Ollama,Base URL 记得填
http://你的VPS_IP:11434/v1。
第三步:验证效果
打开一个代码文件,按下 Ctrl+L 打开聊天框,选择 deepseek-coder,然后输入:
"帮我解释一下这段代码的逻辑,并优化一下变量命名。"
你会发现,它生成的回答和云端模型几乎没有差别,而且速度飞快!
🚀 进阶玩法:本地与云端的混合双打
本地模型虽然快,但在处理复杂架构设计或超长上下文(比如重构整个项目)时,逻辑能力还是不如 GPT-4o 或 Claude 3.5 Sonnet。
最聪明的玩法是 “混合双打”:
- 日常补全 (Tab):用本地 Ollama。因为补全需要极低延迟,本地模型是最佳选择。
- 复杂重构 (Composer):用云端 GPT-4o。
如何获取便宜的 GPT-4o API?
官方 API 价格昂贵且容易封号。我目前使用的是 银河录像局 的 API 服务。
优势:企业级中转,并发高,且支持 gpt-4o-all 等最新模型。
配置方法:
在 Cursor 的 Base URL 里填入银河录像局提供的地址(如
https://api.nf.video/v1)。在 API Key 里填入你购买的令牌。
获取渠道:银河录像局官网 (优惠码
ygjc)。
⚡️ 常见问题 (FAQ)
Q: 为什么代码补全 (Tab) 没反应?
A: Cursor 的 Tab 功能(Copilot++)目前对自定义模型的支持还处于实验性阶段。建议在 Ctrl+K (行内编辑) 或 Ctrl+L (侧边栏对话) 中使用本地模型。Tab 补全建议暂时保留给 Cursor 官方的免费额度,或者等待 Cursor 后续更新对本地 FIM (Fill-In-Middle) 模型的支持。
Q: 报错 "Connection refused"?
A: 检查 Ollama 是否允许了跨域或远程连接。如果 Cursor 和 Ollama 在同一台电脑,通常没问题;如果是跨设备,请确保 VPS 防火墙放行了 11434 端口,且 Ollama 配置了 OLLAMA_HOST=0.0.0.0。
🔗 总结
至此,你已经拥有了一套 "VPS 跑后端 (Ollama) + 浏览器跑管理 (Open WebUI) + 编辑器写代码 (Cursor)" 的完整 AI 工作流。
接下来,我们将进入全新的专题 —— Homelab 影音中心。 我们将教你如何把下载好的电影、剧集,变成一个媲美 Netflix 的私人流媒体服务。