文档
Claude Code 可以通过兼容 Anthropic 的 POST /v1/messages 端点与 LM Studio 通信。详见:兼容 Anthropic 的 Messages 端点。

配置为通过兼容 Anthropic 的 API 使用 LM Studio 的 Claude Code
拥有强大的 LLM 硬件设备?使用 LM Link,即可在笔记本电脑上运行 Claude Code,同时让模型在您的硬件设备上运行。
确保 LM Studio 已作为服务器运行(默认端口为 1234)。
您可以从应用程序中启动它,或通过终端使用 lms 启动
lms server start --port 1234
设置这些环境变量,以便 claude CLI 指向您的本地 LM Studio
export ANTHROPIC_BASE_URL=http://localhost:1234 export ANTHROPIC_AUTH_TOKEN=lmstudio
注意事项
ANTHROPIC_AUTH_TOKEN 设置为您的 LM Studio API 令牌。欲了解更多信息,请参阅:身份验证。claude --model openai/gpt-oss-20b
请使用上下文长度超过约 25k 的模型(以及相应的服务器/模型设置)。像 Claude Code 这样的工具会消耗大量的上下文。
如果您在 LM Studio 中开启了“需要身份验证”,请创建一个 API 令牌并设置它
export LM_API_TOKEN=<LMSTUDIO_TOKEN> export ANTHROPIC_AUTH_TOKEN=$LM_API_TOKEN
当启用身份验证时,LM Studio 同时接受 x-api-key 和 Authorization: Bearer <token>。
如果您遇到问题,欢迎加入我们的 Discord
本页面源码可在 GitHub 上查看
本页内容
1) 启动 LM Studio 本地服务器
2) 配置 Claude Code
3) 针对本地模型运行 Claude Code
4) 如果启用了身份验证,请使用您的 LM Studio API 令牌