主页
模型目录
文档
博客
下载
职业
LM Studio 工作
隐私政策
使用条款
关于 LM Studio
API 更新日志
系统要求
离线操作
本地运行 LLM
预设
API
概述
无头模式
空闲 TTL 和自动逐出
结构化输出
工具和函数调用
REST 端点
用户界面
高级
LM Studio 作为本地 LLM API 服务器
您可以从 LM Studio 的开发者选项卡提供本地 LLM,无论是在本地主机还是在网络上。
LM Studio 的 API 可以通过OpenAI 兼容模式、增强型REST API,或通过像lmstudio-js这样的客户端库使用。
lmstudio-js
lmstudio-python
从 LM Studio 加载并提供 LLM
本页内容
- API 选项