文档
Anthropic 兼容端点
Anthropic 兼容端点
| 端点 | 方法 | 文档 |
|---|---|---|
/v1/messages | POST | 消息 (Messages) |
欲了解完整步骤,请参阅:在 LM Studio 中使用 Claude Code。
export ANTHROPIC_BASE_URL=http://localhost:1234 export ANTHROPIC_AUTH_TOKEN=lmstudio claude --model openai/gpt-oss-20b
当启用了“需要身份验证”时,LM Studio 同时支持 x-api-key 和标准的 Authorization: Bearer <token> 标头。要了解有关在 LM Studio 中启用身份验证的更多信息,请查看身份验证。
将您的 Anthropic 客户端(或任何 HTTP 请求)指向本地 LM Studio 服务器。
注意:以下示例假设服务器端口为 1234。
- curl https://api.anthropic.com/v1/messages \ + curl https://:1234/v1/messages \ -H "Content-Type: application/json" \ + -H "x-api-key: $LM_API_TOKEN" \ -d '{ - "model": "claude-4-5-sonnet", + "model": "ibm/granite-4-micro", "max_tokens": 256, "messages": [ {"role": "user", "content": "Write a haiku about local LLMs."} ] }'
from anthropic import Anthropic client = Anthropic( base_url="https://:1234", api_key="lmstudio", ) message = client.messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "Hello from LM Studio", } ], model="ibm/granite-4-micro", ) print(message.content)
如果您没有启用“需要身份验证”,则 x-api-key 标头是可选的。对于 Python 示例,当禁用身份验证时,您也可以省略 api_key。
如果您遇到问题,请加入我们的 Discord 并进入开发者频道。
此页面源码可在 GitHub 上获取