文档
Anthropic 兼容端点
Anthropic 兼容端点
LM Studio 提供了一个强大的 REST API,对本地推理和模型管理有着一流的支持。除了我们的原生 API,我们还提供兼容 OpenAI 的端点(了解更多)和兼容 Anthropic 的端点(了解更多)。
此前,我们提供过 v0 REST API。随着 LM Studio 0.4.0 的发布,我们正式推出了位于 /api/v1/* 端点的原生 v1 REST API,并建议使用该版本。
v1 REST API 包含多项增强功能,例如:
LM Studio 的 v1 REST API 提供以下端点:
| 端点 | 方法 | 文档 |
|---|---|---|
/api/v1/chat | POST | 聊天 |
/api/v1/models | GET | 列出模型 |
/api/v1/models/load | POST | 加载 (Load) |
/api/v1/models/unload | POST | 卸载 (Unload) |
/api/v1/models/download | POST | 下载 |
/api/v1/models/download/status | GET | 下载状态 (Download Status) |
下表对比了 LM Studio 的 /api/v1/chat 端点与 OpenAI 兼容和 Anthropic 兼容的推理端点的功能。
| 功能 | /api/v1/chat | /v1/responses | /v1/chat/completions | /v1/messages |
|---|---|---|---|---|
| 流式 | ✅ | ✅ | ✅ | ✅ |
| 有状态聊天 | ✅ | ✅ | ❌ | ❌ |
| 远程 MCP | ✅ | ✅ | ❌ | ❌ |
| 您在 LM Studio 中持有的 MCP | ✅ | ✅ | ❌ | ❌ |
| 自定义工具 | ❌ | ✅ | ✅ | ✅ |
| 在请求中包含助手消息 | ❌ | ✅ | ✅ | ✅ |
| 模型加载流式事件 | ✅ | ❌ | ❌ | ❌ |
| 提示词处理流式事件 | ✅ | ❌ | ❌ | ❌ |
| 在请求中指定上下文长度 | ✅ | ❌ | ❌ | ❌ |
如果遇到 Bug,请在 Github 上提交 Issue。
本页源代码可在 GitHub 上获取