文档

LM Studio REST API

LM Studio API

用于本地推理和模型管理的 LM Studio REST API

LM Studio 提供了一个强大的 REST API,对本地推理和模型管理有着一流的支持。除了我们的原生 API,我们还提供兼容 OpenAI 的端点(了解更多)和兼容 Anthropic 的端点(了解更多)。

新功能

此前,我们提供过 v0 REST API。随着 LM Studio 0.4.0 的发布,我们正式推出了位于 /api/v1/* 端点的原生 v1 REST API,并建议使用该版本。

v1 REST API 包含多项增强功能,例如:

支持的端点

LM Studio 的 v1 REST API 提供以下端点:

端点方法文档
/api/v1/chatPOST聊天
/api/v1/modelsGET列出模型
/api/v1/models/loadPOST加载 (Load)
/api/v1/models/unloadPOST卸载 (Unload)
/api/v1/models/downloadPOST下载
/api/v1/models/download/statusGET下载状态 (Download Status)

推理端点对比

下表对比了 LM Studio 的 /api/v1/chat 端点与 OpenAI 兼容和 Anthropic 兼容的推理端点的功能。

功能/api/v1/chat/v1/responses/v1/chat/completions/v1/messages
流式
有状态聊天
远程 MCP
您在 LM Studio 中持有的 MCP
自定义工具
在请求中包含助手消息
模型加载流式事件
提示词处理流式事件
在请求中指定上下文长度

如果遇到 Bug,请在 Github 上提交 Issue。

本页源代码可在 GitHub 上获取