使用Claude Code接入国内三方大模型
0x00 作者/时间
c0mpos3r/20260127
0x01 背景:墙
claude code很火,但是在国内要想用上它,还真不是件容易的事。如果你要用claude code自带的模型来开发程序,得先解决以下几个问题:1、有海外电话卡;2、有海外信用卡;3、你得能打开海外的网站。这几个问题如果都能解决,恭喜你,你可以顶着随时可能被claude官方封掉账号的风险去用claude code开发了。
上面的问题是一个更大的背景下诞生的怪胎,互相看不惯的双方各自围了个墙,谁也别想用谁。本文在这个背景下,要找到一种在国内开发的更优解
0x02 整体架构
- claude code
- litellm
- maas(任何一家tokens服务)
- deepseek(选择你想要模型)
这个是组网图
+--------------+
| |
|claude code |
| |
+------+-------+
|
|
|
+------v-------+
| |
| litellm |
| |
+------+-------+
|
|
+-------------------+--------------------+
| v |
| +--------- maas |
| | |
| +-----v-----+ +--------+ +-------+ |
| | | | | | | |
| | deepseek | | qwen | | GLM | |
| +-----------+ +--------+ +-------+ |
+----------------------------------------+
我们从下往上分三层来搭建这个环境
0x03 开通大模型API
由于前面背景中介绍的问题,这里使用国内的maas平台来接入大模型(如果你是个土豪,有充足的GPU资源,也可以在本地部署大模型接入),这里以华为云的maas平台为例(考虑到它提供的deepseek模型每百万token调用费用跟deepseek官网价格一样,而整个云平台能提供更稳定、更高效的推理能力,不容易出现中断,相对而言性价比会更高)
步骤1:先打开maas平台,开通你想要的模型
https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/deployment
我们在这里开通了deepseek v3.2

步骤2:创建api key
https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/authmanage

步骤3:将api key下载保存到本地,等会要用
0x04 安装litellm
为什么要加一层litellm,直接将claude code接到大模型上不好吗?这里又有个背景:
访问大模型的api格式规范有很多种,比如openai和anthropic的api就不一样,而claude code在调用大模型api的时候,已经预置好调用格式了,如果我们提供的api格式不满足claude code的要求,就会直接报错,提示各种调用参数异常
本来是想快速上手用大模型来开发的,结果在调试环境这个事上要花费更多精力。
那怎么才能解决这个问题呢?答案是,我们可以在claude code这个工具和大模型的api之间加一层网关,这个网关支持各种主流api格式,会对不同的请求做自动格式转换,再也不会出现格式不兼容的问题了
那回到这个网关上,有哪些选择呢?litellm作为一个开源的轻量级软件,是个不错的选择,配置也很简单,可以按下面的步骤操作下
安装litellm
pip install 'litellm[proxy]'
注:如果在一些新版本的linux发行版下使用pip,可能会出现安装不上的问题。原因是这些版本的python版本也很高,高版本的环境默认开启了执行环境的隔离,可以创建一个虚拟环境再安装依赖包到该虚拟环境中。
找一个目录,并在当前目录下,创建一个config.yaml文件,内容如下
model_list:
- model_name: claude-3-5-haiku-coding
litellm_params:
model: custom_openai/deepseek-v3.2
api_base: os.environ/MAAS_BASE_URL
api_key: os.environ/MAAS_API_KEY
- model_name: deepseek-v3.2
litellm_params:
model: custom_openai/deepseek-v3.2
api_base: os.environ/MAAS_BASE_URL
api_key: os.environ/MAAS_API_KEY
注:这里把模型名命名为claude-3-5-haiku-coding是为了通过claude code内部对模型的一些预置判断条件,充分开启其预置代码开发的能力,如果想改成其它名字也是可以的。
创建一个导入环境变量的shell文件init_claude_env.sh(注:正式使用前记得把两个API KEY更新下,第一个<YOUR LITELLM API KEY>可以随便写个字符串,第二个<YOUR API KEY>需要填写前面在maas平台创建的api key)
export LITELLM_MASTER_KEY=<YOUR LITELLM API KEY>
export MAAS_API_KEY=<YOUR API KEY>
export MAAS_BASE_URL=https://api.modelarts-maas.com/v2
export ANTHROPIC_BASE_URL=http://127.0.0.1:4000
export ANTHROPIC_AUTH_TOKEN=$LITELLM_MASTER_KEY
unset ANTHROPIC_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=claude-3-5-haiku-coding
export ANTHROPIC_SMALL_FAST_MODEL=claude-3-5-haiku-coding
export CLAUBE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
export PATH=$PATH:~/pyenv/claude/bin
然后在当前目录下,执行以下命令启动litellm
source init_claude_env.sh
litellm --config config.yaml
启动成功的界面

0x05 安装claude code
如果你已经安装了nodejs,那直接执行以下命令就可以把claude code安装完
npm i -g @anthropic-ai/claude-code
注:如果你没安装nodejs,去国内的镜像站找个最新的版本下载安装一个,比如华为云的镜像站就有:https://mirrors.huaweicloud.com/nodejs/
0x06 使用claude code
随便创建一个目录,切到这个目录下,然后启动claude code
mkdir project_test
cd project_test
claude
启动成功,可以开启你的开发之旅了!

在claude code中可以看到token的消耗和context的使用情况


- 点赞
- 收藏
- 关注作者
评论(0)