使用免费的大模型

OpenRouter、Ollama 与 ClaudeCodeRouter 接入方案

本节介绍如何将免费大模型接入 Claude Code,包含:免费模型提供商、本地 Ollama、以及 ClaudeCodeRouter。

寻找免费大模型提供商

OpenRouter

OpenRouter 聚合了多种大模型,提供部分免费模型或免费额度。

步骤 1:注册账户

  • 访问 https://openrouter.ai/
  • 点击 “Sign Up” 注册
  • 登录后进入控制台

步骤 2:获取免费模型

  • 点击 “Models”
  • 筛选 “Free” 模型
  • 选择可用模型,如:
    • Llama 3 8B Instruct
    • Mistral 7B Instruct
    • Gemma 7B Instruct

步骤 3:获取 API Key

  • 点击 “API Keys”
  • 创建新密钥并保存

阿里云通义千问

阿里云提供通义千问免费额度。

步骤 1:注册阿里云账户

  • 访问 https://www.aliyun.com/
  • 点击 “免费注册”
  • 完成实名认证

步骤 2:开通通义千问服务

  • 搜索“通义千问”并进入产品页
  • 点击“立即开通”
  • 进入通义千问控制台

步骤 3:寻找免费模型

  • 在官方文档查找可免费使用的模型列表

步骤 4:获取 API 密钥

  • 进入“API 密钥管理”
  • 创建 AccessKey
  • 保存 AccessKey ID 与 Secret

本地搭建 Ollama

Ollama 支持在本地运行开源模型。

安装 Ollama

macOS

  • 访问 https://ollama.com/
  • 下载 macOS 版本并安装
  • 运行 ollama --version 验证

Windows

  • 下载 Windows 版本并安装
  • 运行 ollama --version 验证

Linux

curl -fsSL https://ollama.com/install.sh | sh

安装后运行 ollama --version 验证。

下载并运行模型

ollama run llama3
  • 会自动下载模型并启动会话
  • 输入“你好,请介绍一下自己”测试
  • 输入 /bye 退出

启动 Ollama API 服务

ollama serve

API 默认地址 http://localhost:11434

测试 API:

curl http://localhost:11434/api/chat -d '{"model": "llama3", "messages": [{"role": "user", "content": "你好"}]}'

将免费模型接入 ClaudeCodeRouter

配置 ClaudeCodeRouter

创建 router.config.json

{
  "port": 3000,
  "models": [
    {
      "name": "llama3",
      "type": "ollama",
      "baseUrl": "http://localhost:11434",
      "model": "llama3"
    },
    {
      "name": "openrouter-llama3",
      "type": "openrouter",
      "apiKey": "your_openrouter_api_key",
      "model": "meta-llama/llama-3-8b-instruct:free"
    }
  ]
}

配置说明:

  • port:ClaudeCodeRouter 服务端口
  • models:模型列表
  • type:模型类型(ollama / openrouter / aliyun)
  • baseUrl:本地模型 API 地址
  • apiKey:云服务 API 密钥
  • model:模型名称

启动 ClaudeCodeRouter

ccr start

将 Claude Code 接入 ClaudeCodeRouter

配置 Claude Code

配置文件位置:

  • macOS/Linux:~/.claude/settings.json
  • Windows:%USERPROFILE%\.claude\settings.json

配置示例:

{
  "env": {
    "ANTHROPIC_BASE_URL": "http://localhost:3456",
    "ANTHROPIC_AUTH_TOKEN": "sk-anything",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "llama3",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "llama3",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "llama3"
  }
}

配置说明:

  • ANTHROPIC_BASE_URL:ClaudeCodeRouter 服务地址
  • ANTHROPIC_AUTH_TOKEN:可填任意值
  • ANTHROPIC_DEFAULT_*_MODEL:映射到免费模型

重启 Claude Code

  • 关闭所有 Claude Code 窗口
  • 打开新终端
  • 在项目目录运行 claude

验证配置

你好,请介绍一下自己。
  • 输入 /status 查看模型状态
  • 看到免费模型回复即表示成功

进阶配置与优化

配置多个免费模型

{
  "port": 3000,
  "models": [
    {
      "name": "llama3",
      "type": "ollama",
      "baseUrl": "http://localhost:11434",
      "model": "llama3"
    },
    {
      "name": "mistral",
      "type": "ollama",
      "baseUrl": "http://localhost:11434",
      "model": "mistral"
    },
    {
      "name": "gemma",
      "type": "ollama",
      "baseUrl": "http://localhost:11434",
      "model": "gemma:7b"
    }
  ]
}

模型切换

{
  "env": {
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "mistral",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "mistral",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "mistral"
  }
}

性能优化

export OLLAMA_NUM_GPU=1
ollama serve
{
  "port": 3000,
  "logLevel": "info",
  "timeout": 60000,
  "models": [
    {
      "name": "llama3",
      "type": "ollama",
      "baseUrl": "http://localhost:11434",
      "model": "llama3"
    }
  ]
}

常见问题及解决方案

ClaudeCodeRouter 启动失败

  • lsof -i :3000 检查端口占用
  • 用 JSON 校验工具检查配置格式
  • 确认 Node.js 版本 >= 18

Claude Code 无法连接 ClaudeCodeRouter

  • 确认服务已启动
  • 检查 ANTHROPIC_BASE_URL 是否正确
  • 检查网络连接
  • 重启 Claude Code 和 ClaudeCodeRouter

模型回复速度慢

  • 确认电脑配置(建议 8GB RAM+,最好有 GPU)
  • 检查网络稳定性
  • 尝试 7B 参数模型

模型回复质量不佳

  • 尝试 DeepSeek-Coder、CodeLlama 等模型
  • 优化提示词
  • 调整 temperaturetop_p

总结

你可以通过 OpenRouter、阿里云、Ollama 或 ClaudeCodeRouter 将免费模型接入 Claude Code。该方案可降低成本并提升灵活性,适合个人学习和小型项目,也适合团队统一管理多模型。

On this page