使用Claude Code接入国内三方大模型

举报
c0mpos3r 发表于 2026/01/27 15:44:11 2026/01/27
【摘要】 快速搭建一个在国内可用的claude code开发环境

0x00 作者/时间

c0mpos3r/20260127

0x01 背景:墙

claude code很火,但是在国内要想用上它,还真不是件容易的事。如果你要用claude code自带的模型来开发程序,得先解决以下几个问题:1、有海外电话卡;2、有海外信用卡;3、你得能打开海外的网站。这几个问题如果都能解决,恭喜你,你可以顶着随时可能被claude官方封掉账号的风险去用claude code开发了。

上面的问题是一个更大的背景下诞生的怪胎,互相看不惯的双方各自围了个墙,谁也别想用谁。本文在这个背景下,要找到一种在国内开发的更优解

0x02 整体架构

  • claude code
  • litellm
  • maas(任何一家tokens服务)
  • deepseek(选择你想要模型)

这个是组网图

             +--------------+             
             |              |             
             |claude code   |             
             |              |             
             +------+-------+             
                    |                     
                    |                     
                    |                     
             +------v-------+             
             |              |             
             | litellm      |             
             |              |             
             +------+-------+             
                    |                     
                    |                     
+-------------------+--------------------+
|                   v                    |
|       +--------- maas                  |
|       |                                |
| +-----v-----+  +--------+  +-------+   |
| |           |  |        |  |       |   |
| |  deepseek |  |   qwen |  |  GLM  |   |
| +-----------+  +--------+  +-------+   |
+----------------------------------------+

我们从下往上分三层来搭建这个环境

0x03 开通大模型API

由于前面背景中介绍的问题,这里使用国内的maas平台来接入大模型(如果你是个土豪,有充足的GPU资源,也可以在本地部署大模型接入),这里以华为云的maas平台为例(考虑到它提供的deepseek模型每百万token调用费用跟deepseek官网价格一样,而整个云平台能提供更稳定、更高效的推理能力,不容易出现中断,相对而言性价比会更高)

步骤1:先打开maas平台,开通你想要的模型
https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/deployment

我们在这里开通了deepseek v3.2
image.png

步骤2:创建api key
https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/authmanage
image.png

步骤3:将api key下载保存到本地,等会要用

0x04 安装litellm

为什么要加一层litellm,直接将claude code接到大模型上不好吗?这里又有个背景:

访问大模型的api格式规范有很多种,比如openai和anthropic的api就不一样,而claude code在调用大模型api的时候,已经预置好调用格式了,如果我们提供的api格式不满足claude code的要求,就会直接报错,提示各种调用参数异常

本来是想快速上手用大模型来开发的,结果在调试环境这个事上要花费更多精力。

那怎么才能解决这个问题呢?答案是,我们可以在claude code这个工具和大模型的api之间加一层网关,这个网关支持各种主流api格式,会对不同的请求做自动格式转换,再也不会出现格式不兼容的问题了

那回到这个网关上,有哪些选择呢?litellm作为一个开源的轻量级软件,是个不错的选择,配置也很简单,可以按下面的步骤操作下

安装litellm

pip install 'litellm[proxy]'

注:如果在一些新版本的linux发行版下使用pip,可能会出现安装不上的问题。原因是这些版本的python版本也很高,高版本的环境默认开启了执行环境的隔离,可以创建一个虚拟环境再安装依赖包到该虚拟环境中。

找一个目录,并在当前目录下,创建一个config.yaml文件,内容如下

model_list:
  - model_name: claude-3-5-haiku-coding
    litellm_params:
      model: custom_openai/deepseek-v3.2
      api_base: os.environ/MAAS_BASE_URL
      api_key: os.environ/MAAS_API_KEY

  - model_name: deepseek-v3.2
    litellm_params:
      model: custom_openai/deepseek-v3.2
      api_base: os.environ/MAAS_BASE_URL
      api_key: os.environ/MAAS_API_KEY

注:这里把模型名命名为claude-3-5-haiku-coding是为了通过claude code内部对模型的一些预置判断条件,充分开启其预置代码开发的能力,如果想改成其它名字也是可以的。

创建一个导入环境变量的shell文件init_claude_env.sh(注:正式使用前记得把两个API KEY更新下,第一个<YOUR LITELLM API KEY>可以随便写个字符串,第二个<YOUR API KEY>需要填写前面在maas平台创建的api key)

export LITELLM_MASTER_KEY=<YOUR LITELLM API KEY>
export MAAS_API_KEY=<YOUR API KEY>
export MAAS_BASE_URL=https://api.modelarts-maas.com/v2
export ANTHROPIC_BASE_URL=http://127.0.0.1:4000
export ANTHROPIC_AUTH_TOKEN=$LITELLM_MASTER_KEY
unset ANTHROPIC_API_KEY
export API_TIMEOUT_MS=600000
export ANTHROPIC_MODEL=claude-3-5-haiku-coding
export ANTHROPIC_SMALL_FAST_MODEL=claude-3-5-haiku-coding
export CLAUBE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
export PATH=$PATH:~/pyenv/claude/bin

然后在当前目录下,执行以下命令启动litellm

source init_claude_env.sh
litellm --config config.yaml

启动成功的界面
image.png

0x05 安装claude code

如果你已经安装了nodejs,那直接执行以下命令就可以把claude code安装完

npm i -g @anthropic-ai/claude-code

注:如果你没安装nodejs,去国内的镜像站找个最新的版本下载安装一个,比如华为云的镜像站就有:https://mirrors.huaweicloud.com/nodejs/

0x06 使用claude code

随便创建一个目录,切到这个目录下,然后启动claude code

mkdir project_test
cd project_test
claude

启动成功,可以开启你的开发之旅了!

image.png

在claude code中可以看到token的消耗和context的使用情况
image.png

image.png

【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。