文档

API 更新日志

LM Studio API 的更新与变动。


LM Studio 0.4.1

兼容 Anthropic 的 API

  • 新增兼容 Anthropic 的端点:POST /v1/messages

LM Studio 0.4.0

LM Studio 原生 v1 REST API


LM Studio 0.3.29 • 2025年10月6日

OpenAI /v1/responses 和变体列表

  • 新增兼容 OpenAI 的端点:POST /v1/responses
    • 通过 previous_response_id 实现有状态交互。
    • 自定义工具调用和远程 MCP 支持(需手动启用)。
    • openai/gpt‑oss‑20b 提供带有 reasoning.effort 的推理支持。
    • 当设置 stream: true 时通过 SSE 进行流式传输。
  • CLI:lms ls --variants 列出多变体模型的所有变体。
  • 文档:/docs/developer/openai-compat。完整版本说明:/blog/lmstudio-v0.3.29

LM Studio 0.3.27 • 2025年9月24日

CLI:模型资源评估、状态和中断

  • 新增功能:lms load --estimate-only <model> 可在加载前打印预计的 GPU 和总内存占用。支持 --context-length--gpu 参数,并使用了改进的估算器,现在可计算 Flash Attention 和视觉模型。
  • lms chat:按下 Ctrl+C 可中断正在进行的预测。
  • lms ps --json 现在报告每个模型的生成状态和排队的预测请求数量。
  • CLI 在浅色模式下的颜色对比度得到提升。
  • 查看文档:/docs/cli/local-models/load。完整版本说明:/blog/lmstudio-v0.3.27

LM Studio 0.3.26 • 2025年9月15日

CLI 日志流:服务器 + 模型

  • lms log stream 现在支持多个来源和过滤器。
    • --source server 流式传输 HTTP 服务器日志(启动、端点、状态)
    • --source model --filter input,output 流式传输格式化的用户输入和模型输出
    • 添加 --json 获取机器可读日志;--stats 可添加 tokens/sec 及相关指标(模型来源)
  • 查看用法和示例:/docs/cli/serve/log-stream。完整版本说明:/blog/lmstudio-v0.3.26

LM Studio 0.3.25 • 2025年9月4日

新模型支持 (API)

  • 添加了对 NVIDIA Nemotron‑Nano‑v2 的支持,通过兼容 OpenAI 的端点进行工具调用
  • 添加了对 Google EmbeddingGemma 的支持,用于 /v1/embeddings 端点

LM Studio 0.3.24 • 2025年8月28日

Seed‑OSS 工具调用和模板修复

  • 添加了对 ByteDance/Seed‑OSS 的支持,包括在兼容 OpenAI 的 API 中进行工具调用和提示词模板的兼容性修复
  • 修复了某些提示词模板下工具调用未被正确解析的问题

LM Studio 0.3.23 • 2025年8月12日

推理内容和工具调用可靠性

  • 对于 POST /v1/chat/completions 中的 gpt‑oss 模型,推理内容已从 message.content 移至 choices.message.reasoning(非流式)和 choices.delta.reasoning(流式),与 o3‑mini 对齐
  • 工具名称会在提供给模型之前进行规范化处理(例如 snake_case),以提高工具调用的可靠性
  • 修复了某些包含工具的 POST /v1/chat/completions 请求产生的错误(例如“reading 'properties'”)以及非流式工具调用失败的问题

LM Studio 0.3.19 • 2025年7月21日

流式传输和工具调用的 Bug 修复

  • 更正了兼容 OpenAI 的流式响应返回的使用统计信息
  • 改进了流式 API 对并行工具调用的处理
  • 修复了某些 Mistral 模型中正确工具调用的解析问题

LM Studio 0.3.18 • 2025年7月10日

流式传输选项和工具调用改进

  • 在兼容 OpenAI 的端点上增加了对 stream_options 对象的支持。设置 stream_options.include_usagetrue,即可在流式传输期间返回提示词和补全 Token 的使用量
  • 从流式端点返回的错误现在遵循 OpenAI 客户端所预期的正确格式
  • Mistral v13 分词器模型添加了工具调用支持,使用正确的聊天模板
  • response_format.type 字段在聊天补全请求中现在接受 "text"
  • 修复了并行工具调用跨多个区块拆分时被丢弃,以及工具定义中根级别的 $defs 被剔除的问题

LM Studio 0.3.17 • 2025年6月25日

工具调用可靠性和 Token 计数更新

  • Token 计数现在包含系统提示词和工具定义 。这使得 UI 和 API 的使用报告更加准确。
  • 工具调用参数 Token 会在生成时进行流式传输 ,从而在使用流式函数调用时提高响应速度。
  • 多项修复提高了 MCP 和工具调用的可靠性,包括正确处理忽略 parameters 对象的工具,以及防止 MCP 服务器重新加载时发生挂起

LM Studio 0.3.16 • 2025年5月23日

GET /models 中的模型能力

  • 兼容 OpenAI 的 REST API (/api/v0) 现在在 GET /models 响应中返回一个 capabilities 数组。每个模型都会列出其支持的能力(例如 "tool_use",以便客户端可以编程方式发现支持工具调用的模型。
  • 修复了一个流式传输 Bug:在第一个流式工具调用包之后会附加一个空的函数名字符串

👾 LM Studio 0.3.15 • 2025年4月24日

改进了工具使用 API 支持

类 OpenAI 的 REST API 现在支持 tool_choice 参数

{
  "tool_choice": "auto" // or "none", "required"
}
  • "tool_choice": "none" — 模型将不调用工具
  • "tool_choice": "auto" — 由模型自主决定
  • "tool_choice": "required" — 模型必须调用工具(仅限 llama.cpp)

分块响应现在会在适当的情况下设置 "finish_reason": "tool_calls"


👾 LM Studio 0.3.14 • 2025年3月27日

[API/SDK] 预设 (Preset) 支持

RESTful API 和 SDK 支持在请求中指定预设。

(需要示例)

👾 LM Studio 0.3.10 • 2025年2月18日

推测解码 (Speculative Decoding) API

通过 API 请求中的 "draft_model" 启用推测解码

{
  "model": "deepseek-r1-distill-qwen-7b",
  "draft_model": "deepseek-r1-distill-qwen-0.5b",
  "messages": [ ... ]
}

响应现在包含一个用于推测解码的 stats 对象

"stats": {
  "tokens_per_second": ...,
  "draft_model": "...",
  "total_draft_tokens_count": ...,
  "accepted_draft_tokens_count": ...,
  "rejected_draft_tokens_count": ...,
  "ignored_draft_tokens_count": ...
}

👾 LM Studio 0.3.9 • 2025年1月30日

空闲 TTL (生存时间) 和自动驱逐

为通过 API 请求加载的模型设置 TTL(秒)(文档文章:空闲 TTL 和自动驱逐

curl https://:1234/api/v0/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-r1-distill-qwen-7b",
    "messages": [ ... ]
+   "ttl": 300,
}'

通过 lms 使用

lms load --ttl <seconds>

聊天补全响应中的独立 reasoning_content

对于 DeepSeek R1 模型,在单独的字段中获取推理内容。了解更多请点击此处

在“应用程序设置 > 开发者”中启用此功能。


👾 LM Studio 0.3.6 • 2025年1月6日

工具和函数调用 API

使用任何支持工具使用和函数调用的 LLM(通过 OpenAI 风格的 API)。

文档:工具使用和函数调用


👾 LM Studio 0.3.5 • 2024年10月22日

引入 lms get:从终端下载模型

现在可以直接在终端中使用关键字下载模型

lms get deepseek-r1

或者使用完整的 Hugging Face URL

lms get <hugging face url>

若要仅筛选 MLX 模型,请在命令中添加 --mlx

lms get deepseek-r1 --mlx

本页面的源代码可在 GitHub 上找到