跳转到主内容安装与配置 Claude Code:从零到跑通
上一篇我们聊了 Claude Code 是什么。这篇直接动手——装好它,跑通第一次对话。
整个过程大概 10 分钟。国内用户不用担心网络问题——Claude Code 支持接入国产大模型,注册就能用。
环境要求
先确认你的机器满足条件:
| 条件 | 说明 |
|---|
| 操作系统 | macOS、Linux 直接支持;Windows 需要先装 WSL2 |
| 终端 | macOS 自带的 Terminal 或 iTerm2;Linux 任意终端 |
如果你用 Windows,先去微软官方文档安装 WSL2。后续所有操作都在 WSL 的 Linux 终端里进行,和 macOS/Linux 的流程完全一样。
安装 Claude Code
两种方式,选一个就行。
方式一:原生安装器(推荐)
curl -fsSL https://claude.ai/install.sh | bash
装完后终端输入 claude,如果看到欢迎界面就成功了。
方式二:通过 npm 安装
如果你本来就有 Node.js 环境(18 以上版本),也可以用 npm(官方已推荐原生安装器,npm 方式仍可用但不再是首选):
npm install -g @anthropic-ai/claude-code
# macOS(用 Homebrew)
brew install node@22
# 或者用 nvm(版本管理更灵活)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh | bash
source ~/.zshrc
nvm install 22
国内用户提示: nvm 默认从国外源下载 Node.js,速度可能较慢。可以配置国内镜像:
export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node
nvm install 22
npm 安装 Claude Code 同理,可以使用国内镜像加速:
npm install -g @anthropic-ai/claude-code --registry=https://registry.npmmirror.com
常用镜像源:npmmirror(淘宝)https://registry.npmmirror.com、腾讯 https://mirrors.tencent.com/npm/、华为 https://repo.huaweicloud.com/repository/npm/。
验证安装
选择模型与登录
Claude Code 安装好之后,下一步是决定用什么模型、怎么登录。
国产模型:国内用户推荐的上手方式
Claude Code 原生支持接入国产大模型。不需要任何额外的网络配置,注册一个国产模型的 API Key,就能直接用。
这是国内用户最省心的路径——国产模型 API 都部署在国内,访问快、稳定、价格低。
2026 年初国产模型迎来了一轮集中升级,GLM-5、MiniMax M2.5、Qwen3.5 都在 2 月密集发布,编程能力已经接近甚至追平国际顶尖模型。用它们来驱动 Claude Code,完全够用。
怎么接入
好消息是,现在多家国产模型都提供了 Anthropic 兼容接口——也就是说,Claude Code 可以用最原生的方式对接,兼容性最好。只需要设置两个环境变量:
export ANTHROPIC_BASE_URL="国产模型的 Anthropic 兼容地址"
export ANTHROPIC_API_KEY="你的 API Key"
claude
不需要加 --model openai/xxx 前缀,体验和用 Claude 官方模型几乎一样。
DeepSeek V3.2(性价比之王)
社区生态最好,价格极低(高强度使用月费仅 20-30 元),兼容性经过大量用户验证。最新版本 V3.2 于 2025 年 12 月发布,能力较 V3 有明显提升。
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_API_KEY="sk-your-deepseek-key"
# zsh 用户(macOS 默认)
cat >> ~/.zshrc << 'EOF'
export ANTHROPIC_BASE_URL="https://api.deepseek.com/anthropic"
export ANTHROPIC_API_KEY="sk-your-deepseek-key"
EOF
source ~/.zshrc
MiniMax M2.5(编程能力最强)
2026 年 2 月发布后 12 小时内登顶 OpenRouter 热度榜。SWE-bench Verified 得分 80.2%,编程能力在国产模型中数一数二。价格也很低,支持并行工具调用,特别适合 Agent 任务。
export ANTHROPIC_BASE_URL="https://api.minimaxi.com/anthropic"
export ANTHROPIC_API_KEY="your-minimax-key"
claude
Qwen3.5(极致性价比)
2026 年 2 月发布,MMLU-Pro 87.8 超越 GPT-5.2。价格极低——Qwen3.5-Plus 输入仅 ¥0.8/百万 tokens,Flash 版更是低至 ¥0.2/百万 tokens。阿里云还有 Coding Plan 套餐,新用户首月 ¥7.9。
export ANTHROPIC_BASE_URL="https://dashscope.aliyuncs.com/apps/anthropic"
export ANTHROPIC_API_KEY="sk-your-dashscope-key"
claude
GLM-5(开源编程 SOTA)
2026 年 2 月发布并开源,SWE-bench Verified 表现比肩 Claude Opus 4.5,成本仅为后者的 1/7。曾以匿名身份「Pony Alpha」在 OpenRouter 上走红。200K 上下文窗口。
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"
export ANTHROPIC_API_KEY="your-glm-api-key"
claude
Kimi K2.5(体验最稳定)
月之暗面出品。256K 超长上下文,在 OpenRouter 上调用量排名前列。社区反馈「对 Claude Code 指令支持最全面」「体验最流畅的一家」。缓存命中率高达 90%,实际使用成本很低。
export ANTHROPIC_BASE_URL="https://api.moonshot.cn/anthropic/"
export ANTHROPIC_API_KEY="your-kimi-key"
claude
各模型对比
| 模型 | 编程能力 | 上下文 | 输入价格(¥/百万 tokens) | 特点 |
|---|
| DeepSeek V3.2 | 强 | 128K | ~¥2 | 社区最大,价格最低,稳定性好 |
| MiniMax M2.5 | 极强 | 196K | ~¥1 | SWE-bench 80.2%,编程专精 |
| Qwen3.5-Plus | 极强 | 大 | ¥0.8 | 极致性价比,阿里云生态 |
| GLM-5 | 极强 | 200K | ¥4 | 开源 SOTA,比肩 Claude Opus |
| Kimi K2.5 | 强 | 256K | ¥4 | 体验最稳定,最长上下文 |
- 第一次用?选 DeepSeek V3.2。 社区资料最多,踩坑概率最低,价格便宜到几乎不用算账
- 重度编程?选 MiniMax M2.5 或 Qwen3.5。 编程能力顶尖,价格也低
- 大型项目?选 Kimi K2.5。 256K 上下文在处理大型代码库时优势明显
- 想要最强模型?选 GLM-5。 接近 Claude Opus 水平的开源模型,但价格稍高
通过 API 网关统一管理(进阶)
如果你需要灵活切换多个模型,可以部署一个 API 网关,比如 new-api(开源,支持 Anthropic 格式转换)。在网关后台添加各家模型密钥,Claude Code 只需对接网关一个地址。适合团队使用,初学者不需要折腾。
功能差异说明
Claude Code 是为 Claude 模型深度优化的工具。使用国产模型时:
- 完全可用:文件读写、代码生成、项目理解、Git 操作、终端命令——这些核心功能都正常
- 有差距:扩展推理(extended thinking)不可用,部分高级功能(如子智能体编排)体验有差距
- 好消息:2026 年初的国产模型在 function calling 上进步很大,工具调用的稳定性已经大幅改善
- 结论:日常开发够用,甚至很好用。想要完整体验再考虑切换到 Claude 官方模型
Claude 官方模型
如果你能访问 Anthropic API(api.anthropic.com),可以使用 Claude 官方模型获得最完整的体验。
终端输入 claude,自动打开浏览器引导你登录 Anthropic 账户。登录完成回到终端就能用了。需要 Pro($20/月)或 Max($100/$200/月)订阅。
export ANTHROPIC_API_KEY="sk-ant-xxxxxxxxxxxxx"
claude --model claude-opus-4-6 # Opus 4.6:最强,消耗更多额度
claude --model claude-sonnet-4-6 # Sonnet 4.6:日常推荐
# 或在对话中用 /model 命令切换
日常用 Sonnet 就够了。复杂架构设计或棘手 bug 时切 Opus。
试一下:第一次对话
# 让它了解你的项目
这个项目是做什么的?帮我梳理一下目录结构
# 让它做点事
帮我写一个 .gitignore 文件,参考现有的项目结构
# 问它一个技术问题
src/index.ts 里的 handleRequest 函数逻辑是什么?
你会发现它会直接去读你的文件,而不是让你复制粘贴代码过来。这就是我们上一篇说的——它是「搭档」,不是「顾问」。
常用配置文件一览
随着使用深入,你会接触到这些配置文件。现在不用全记住,知道有这些东西就行:
| 文件 | 位置 | 作用 |
|---|
CLAUDE.md | 项目根目录 | 项目级 AI 指令——告诉 Claude 这个项目的规则和偏好 |
CLAUDE.md | ~/.claude/ | 全局 AI 指令——你所有项目通用的偏好 |
settings.json | ~/.claude/ | 全局设置——权限、Hook 等 |
settings.json | .claude/ | 项目级设置 |
.claude.json | ~/ | MCP Server 配置 |
后续文章会逐一讲解。下一篇,我们先聊聊和 Claude Code 交互的正确姿势——怎么提问、怎么审批、怎么让它更好地理解你的意图。