使用免费的大模型
OpenRouter、Ollama 与 ClaudeCodeRouter 接入方案
本节介绍如何将免费大模型接入 Claude Code,包含:免费模型提供商、本地 Ollama、以及 ClaudeCodeRouter。
寻找免费大模型提供商
OpenRouter
OpenRouter 聚合了多种大模型,提供部分免费模型或免费额度。
步骤 1:注册账户
- 访问
https://openrouter.ai/ - 点击 “Sign Up” 注册
- 登录后进入控制台
步骤 2:获取免费模型
- 点击 “Models”
- 筛选 “Free” 模型
- 选择可用模型,如:
- Llama 3 8B Instruct
- Mistral 7B Instruct
- Gemma 7B Instruct
步骤 3:获取 API Key
- 点击 “API Keys”
- 创建新密钥并保存
阿里云通义千问
阿里云提供通义千问免费额度。
步骤 1:注册阿里云账户
- 访问
https://www.aliyun.com/ - 点击 “免费注册”
- 完成实名认证
步骤 2:开通通义千问服务
- 搜索“通义千问”并进入产品页
- 点击“立即开通”
- 进入通义千问控制台
步骤 3:寻找免费模型
- 在官方文档查找可免费使用的模型列表
步骤 4:获取 API 密钥
- 进入“API 密钥管理”
- 创建 AccessKey
- 保存 AccessKey ID 与 Secret
本地搭建 Ollama
Ollama 支持在本地运行开源模型。
安装 Ollama
macOS
- 访问
https://ollama.com/ - 下载 macOS 版本并安装
- 运行
ollama --version验证
Windows
- 下载 Windows 版本并安装
- 运行
ollama --version验证
Linux
curl -fsSL https://ollama.com/install.sh | sh安装后运行 ollama --version 验证。
下载并运行模型
ollama run llama3- 会自动下载模型并启动会话
- 输入“你好,请介绍一下自己”测试
- 输入
/bye退出
启动 Ollama API 服务
ollama serveAPI 默认地址 http://localhost:11434。
测试 API:
curl http://localhost:11434/api/chat -d '{"model": "llama3", "messages": [{"role": "user", "content": "你好"}]}'将免费模型接入 ClaudeCodeRouter
配置 ClaudeCodeRouter
创建 router.config.json:
{
"port": 3000,
"models": [
{
"name": "llama3",
"type": "ollama",
"baseUrl": "http://localhost:11434",
"model": "llama3"
},
{
"name": "openrouter-llama3",
"type": "openrouter",
"apiKey": "your_openrouter_api_key",
"model": "meta-llama/llama-3-8b-instruct:free"
}
]
}配置说明:
port:ClaudeCodeRouter 服务端口models:模型列表type:模型类型(ollama / openrouter / aliyun)baseUrl:本地模型 API 地址apiKey:云服务 API 密钥model:模型名称
启动 ClaudeCodeRouter
ccr start将 Claude Code 接入 ClaudeCodeRouter
配置 Claude Code
配置文件位置:
- macOS/Linux:
~/.claude/settings.json - Windows:
%USERPROFILE%\.claude\settings.json
配置示例:
{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:3456",
"ANTHROPIC_AUTH_TOKEN": "sk-anything",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "llama3",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "llama3",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "llama3"
}
}配置说明:
ANTHROPIC_BASE_URL:ClaudeCodeRouter 服务地址ANTHROPIC_AUTH_TOKEN:可填任意值ANTHROPIC_DEFAULT_*_MODEL:映射到免费模型
重启 Claude Code
- 关闭所有 Claude Code 窗口
- 打开新终端
- 在项目目录运行
claude
验证配置
你好,请介绍一下自己。- 输入
/status查看模型状态 - 看到免费模型回复即表示成功
进阶配置与优化
配置多个免费模型
{
"port": 3000,
"models": [
{
"name": "llama3",
"type": "ollama",
"baseUrl": "http://localhost:11434",
"model": "llama3"
},
{
"name": "mistral",
"type": "ollama",
"baseUrl": "http://localhost:11434",
"model": "mistral"
},
{
"name": "gemma",
"type": "ollama",
"baseUrl": "http://localhost:11434",
"model": "gemma:7b"
}
]
}模型切换
{
"env": {
"ANTHROPIC_DEFAULT_OPUS_MODEL": "mistral",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "mistral",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "mistral"
}
}性能优化
export OLLAMA_NUM_GPU=1
ollama serve{
"port": 3000,
"logLevel": "info",
"timeout": 60000,
"models": [
{
"name": "llama3",
"type": "ollama",
"baseUrl": "http://localhost:11434",
"model": "llama3"
}
]
}常见问题及解决方案
ClaudeCodeRouter 启动失败
lsof -i :3000检查端口占用- 用 JSON 校验工具检查配置格式
- 确认 Node.js 版本 >= 18
Claude Code 无法连接 ClaudeCodeRouter
- 确认服务已启动
- 检查
ANTHROPIC_BASE_URL是否正确 - 检查网络连接
- 重启 Claude Code 和 ClaudeCodeRouter
模型回复速度慢
- 确认电脑配置(建议 8GB RAM+,最好有 GPU)
- 检查网络稳定性
- 尝试 7B 参数模型
模型回复质量不佳
- 尝试 DeepSeek-Coder、CodeLlama 等模型
- 优化提示词
- 调整
temperature、top_p
总结
你可以通过 OpenRouter、阿里云、Ollama 或 ClaudeCodeRouter 将免费模型接入 Claude Code。该方案可降低成本并提升灵活性,适合个人学习和小型项目,也适合团队统一管理多模型。