文档

LM Studio 作为本地 LLM API 服务器

你可以从 LM Studio 的开发者选项卡中提供本地 LLM 服务,可以在本地主机或网络上运行。

LM Studio 的 API 可以通过 OpenAI 兼容模式、增强的 REST API 或客户端库(如 lmstudio-js)使用。

API 选项

undefined

从 LM Studio 加载并服务 LLM