mylogo

退役程序员的茶室 RetiredCoder.cn

← 返回上一页

利用Ollama本地大模型驱动Claude Code

Claude Code作为Anthropic推出的强大命令行编程助手,最近Skills技能又是非常火,让我也忍不住装起来用了用。不过虽然它很好用,但消耗API额度也是真的快。有没有办法既能享受它的便捷操作,又不用花钱呢?这回我就来分享一下将Claude Code对接到本地Ollama大模型的方法。

一、 为什么要本地化?

通过 Ollama 在本地部署大模型,再将其接入 Claude Code,这样可以:

  • 零成本:不再担心tokens消耗,本地算力管够。

  • 私密性:代码不出本地,安全有保障。

  • 灵活性:DeepSeek、Qwen、Llama,想用哪个都行。

二、 准备工作:搭好舞台

在开始之前,请确保你的电脑已经安装了以下两个工具:

  1. Ollama:本地大模型的运行环境。

  2. Claude Code:Anthropic 官方的 CLI 工具(可通过访问https://code.claude.com/docs/en/setup复制安装命令)。

三、 核心步骤:环境变量的妙用

Claude Code 默认连接的是云端 API。要让它使用本地大模型,需要在运行命令前注入一些环境变量。

1. 查看本地模型

首先在终端输入ollama list,确认本地有哪些可用的模型。比如你有一个gpt-oss:20b

2. 构造启动命令 访问Ollama的官方文档,可以找到Claude Code相关的具体设置方式: https://docs.ollama.com/api/anthropic-compatibility

要想登入Claude Code时使用Ollama的大模型,需要设置环境变量:

export ANTHROPIC_AUTH_TOKEN=ollama  # required but ignored
export ANTHROPIC_API_KEY="" # required but ignored
export ANTHROPIC_BASE_URL=http://localhost:11434

不过我喜欢把它们放在一条命令里来登入,而且ANTHROPIC_API_KEY也是可以省略的:

ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude --model gpt-oss:20b

四、 实战体验:本地模型表现如何?

在视频演示中,我用了本地大模型尝试让它创建一个Java的Hello World程序,感觉它的响应速度还是有待提高,这当然和我本地的硬件条件有关,如果GPU足够大,相信速度会很快吧。另外不同的本地大模型回复的质量、支持MCP或Skills的程度存在着明显差异,目前在我本地测试看,使用qwen3-coder的效果最佳。

五、 总结

通过这种方案,我们将Claude Code转化为‘单机版’的高效开发助手。利用本地模型处理高频、简单的琐碎任务,将云端大模型保留给复杂的架构设计。这种“云端+本地”的混合调度模式,在保证开发质量的同时,可以大大降低API调用成本与Token消耗。