作为一名长期使用VS Code进行开发的程序员,我一直在寻找能够提升编码效率的AI工具。最近发现通过Claude Code插件接入GLM 4.6模型可以显著改善开发体验,但配置过程遇到不少坑。本文将详细记录从安装到配置的全过程,特别是如何跳过官方登录直接使用GLM 4.6模型。
Claude Code是Anthropic公司推出的AI编程助手,而GLM 4.6是智谱AI开发的大语言模型。通过特定配置,我们可以在VS Code中直接使用GLM 4.6的强大能力,无需经过官方OAuth2授权流程。这种方法特别适合需要快速接入AI辅助编程的开发者。
首先需要安装Claude Code的命令行工具。这里推荐使用npm全局安装v2以上版本:
bash复制npm install -g @anthropic-ai/claude-code
安装完成后,可以通过claude --version命令验证是否安装成功。如果遇到权限问题,可以尝试在前面加上sudo,或者使用npm config set prefix修改全局安装路径。
注意:Node.js版本建议使用16.x或18.x长期支持版,避免兼容性问题。如果系统中有多个Node版本,推荐使用nvm进行管理。
要使用GLM 4.6模型,需要先在智谱AI平台注册账号并购买API服务。具体步骤:
API密钥是访问GLM 4.6的凭证,请妥善保管不要泄露。智谱AI的API采用按量计费,新用户通常有一定免费额度。
安装完成后,需要在用户目录下创建.claude文件夹和配置文件:
bash复制mkdir -p ~/.claude
touch ~/.claude/settings.json
初始配置文件内容如下:
json复制{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"API_TIMEOUT_MS": "3000000",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1
}
}
这个配置会让Claude Code使用智谱AI的API端点,但默认仍会使用Claude的Sonnet 4.5模型。
要让系统默认使用GLM 4.6模型,需要修改配置文件:
json复制{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your.api.key",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"API_TIMEOUT_MS": "3000000",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1,
"ANTHROPIC_DEFAULT_HAIKU_MODEL":"glm-4.6",
"ANTHROPIC_DEFAULT_SONNET_MODEL":"glm-4.6",
"ANTHROPIC_DEFAULT_OPUS_MODEL":"glm-4.6"
}
}
关键配置项说明:
ANTHROPIC_DEFAULT_*_MODEL:强制指定各类模型都使用GLM 4.6API_TIMEOUT_MS:设置超时时间为3000秒,处理复杂任务时不易超时CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC:禁用非必要通信,提升响应速度修改后保存文件,重新启动Claude Code即可生效。可以通过/model命令或直接询问AI当前使用的模型来验证配置是否成功。
在VS Code中安装"Claude Code"插件后,默认仍会要求登录官方账号。要跳过登录直接使用GLM 4.6,需要进行额外配置:
在.vscode/settings.json中添加以下配置:
json复制"claudeCode.environmentVariables":[
{
"name": "ANTHROPIC_BASE_URL",
"value":"https://open.bigmodel.cn/api/anthropic"
},
{
"name": "ANTHROPIC_AUTH_TOKEN",
"value": "your.api.key"
},
{
"name": "ANTHROPIC_MODEL",
"value": "glm-4.6"
},
{
"name": "ANTHROPIC_SMALL_FAST_MODEL",
"value":"glm-4.6"
}
]
配置说明:
ANTHROPIC_BASE_URL:指定API端点指向智谱AIANTHROPIC_AUTH_TOKEN:填写你的智谱API密钥ANTHROPIC_MODEL:设置默认模型为GLM 4.6ANTHROPIC_SMALL_FAST_MODEL:设置快速响应模型也为GLM 4.6配置完成后,在VS Code中:
/select如果一切正常,现在就可以在VS Code中直接使用GLM 4.6进行AI辅助编程了。
GLM 4.6在编程辅助方面表现优异,特别适合以下场景:
例如,当遇到Mac上服务响应慢但日志显示快的问题时,可以:
问题1:模型切换不生效
问题2:响应速度慢
问题3:代码建议质量不高
Cursor是另一款流行的AI编程工具,与Claude Code+GLM 4.6相比:
优势:
劣势:
根据我的使用经验:
这种组合既能享受不同工具的优势,又能避免单一AI模型的局限性。