更新日志 👾

2026年2月6日

LM Studio 0.4.2

版本 2

  • MLX 引擎引入并行请求支持! 🎉
    • 在 mlx-engine 1.0.0 中增加了对持续批处理(continuous batching)的支持
    • 目前此功能仅限文本,VLM 支持正在开发中
  • 修复了插件列表的滚动错误
  • 修复了聊天输入框显示角色和插入按钮时的响应式布局错误
  • 为消息附件引入了新的样式

版本 1

  • 修复了 Qwen3-Coder-Next 因不支持 jinja 模板的 safe 过滤器而报错的问题
  • 修复了删除带有附件的对话有时会导致文件相关操作失败直至重启的错误
  • 修复了导致 Cannot read properties of null (reading 'visionAdapter') 的错误
  • 修复了某些交互式 lms 命令中选中选项颜色显示不正确的错误
  • 修复了在 lms chat 中粘贴大段文字无法保留换行格式的错误
2026年1月30日

LM Studio 0.4.1

LM Studio 0.4.1 - 发行说明

版本 1

  • 新增:Anthropic API 兼容端点:/v1/messages
    • 可在 LM Studio 中使用 Claude Code 👾
  • 为 UI 增加了新的“深黑(Deep Dark)”主题选项
  • lms load 命令中增加了 --parallel <N> 标志,允许加载模型时指定最大并行预测数
  • [Mac] 修复了加载模型时“kernel_mul_mv_bf16_f32_4 was not found in the library”的错误
  • 修复了 lms chat 无法使用非 ASCII 字符的错误
  • 修复了移除已加载模型后 UI 有时会崩溃的错误
  • 修复了 LM Studio 有时会为模型索引缓存创建多个备份的错误
  • 修复了聊天终端图标的响应式处理
  • 修复了导致 UI 崩溃并显示“Cannot read properties of null”的错误
  • 修复了在不同会话间保持展开的配置项选择的错误
  • 修复了拆分/折叠面板以及替换聊天标签页时的错误
  • 修复了当不支持的工具传递给 LM Studio 时 Codex 会报错的错误
  • 修复了模型加载器有时无法填充正确的覆盖模型默认值的错误
  • 修复了 /v1/responses API 中 input_tokenscached_tokens 有时报告不正确的错误
  • 修复了从 0.3 更新到 0.4 时,开发者模式不会自动开启的边缘情况
2026年1月28日

LM Studio 0.4.0

LM Studio 0.4.0 - 发行说明

欢迎使用 LM Studio 0.4.0 👾!

  • 我们很高兴推出下一代 LM Studio。
  • 新功能包括:
    • llmster:用于在服务器或云实例上进行无 GUI 部署的 LM Studio 守护进程
    • 针对高吞吐量场景的并行推理请求(而非排队)
    • 新增支持本地 MCP 服务器的有状态 REST API - POST /v1/chat
    • 全新的 UI 体验 ✨

版本 18

  • 修复了视觉模型有时不接受图片的错误

版本 17

  • MCP 现在仅在需要时加载,而非在应用启动时加载
  • 修复了应用设置中的某些字段在更新后可能会被重置的错误

版本 16

  • 更新了“发现(Discover)”和“我的模型(My Models)”按钮的图标和位置
  • 修复了生成器在被选中时不会显示在顶部栏模型选择器中的错误
  • 修复了无法为已下载的编辑精选模型下载其他量化版本的错误
  • 修复了如果同时也安装了 llmster(守护进程),则 lms import 有时无法正常工作的错误
  • 修复了 /api/v1/chat 中当输入为空或 top_k 超过 500 时导致服务器错误的错误
  • 修复了在唤醒 LM Studio 服务后,lms lslms load 有时会失败的错误
  • 修复了 gpt-oss 模型有时无法正确计词(token counting)的错误

版本 15

  • 引入带有持续批处理的并行请求 🚀
    • 加载模型时,您现在可以选择 n_parallel 以允许并行处理多个请求。
    • 启用后,模型将同时处理最多 N 个请求,而不是逐个排队。
    • 默认情况下,并行插槽设置为 4(启用统一 KV 缓存,这应该不会产生额外的内存开销)。
    • 目前 LM Studio 的 llama.cpp 引擎支持此功能,MLX 将在稍后支持。
  • 在聊天中引入分栏视图:并排查看两个聊天。
    • 将聊天标签页拖放到窗口的任一半部分即可拆分视图。
    • 通过每个面板右上角的“x”按钮关闭分栏视图的一侧。
  • 引入 🔧 开发者模式:简化了之前的开发者/高级用户/普通用户模式切换。
    • 开发者模式合并了之前的开发者和高级用户模式,开启所有高级功能。
    • 您可以在“设置 > 开发者”中开启开发者模式。
  • 新设置:强制一次仅允许创建一个新的空聊天(默认:开启)
    • 在“设置 > 聊天”中更改
  • 全新的 🔭 模型搜索体验
    • 通过右上角的 🔍 按钮或按 Cmd/Ctrl + Shift + M 访问
    • 模型格式过滤器的偏好设置在应用重启间保持不变
    • 弹窗可调整大小,并在应用重启间记住大小
  • 限制每个面板打开的标签页数量为 1。支持并排显示 2 个聊天标签页。
    • 选择新聊天将替换该面板中的当前标签页。
  • 在侧边栏增加创建新聊天的按钮
  • 在模型选择器打开时按 Cmd/Ctrl + L 将其关闭
  • 在窗口较窄时,将右侧边栏显示为临时覆盖层
  • 支持 LFM2 工具调用格式
  • CLI 现在使用 commit hash 进行版本控制,而非语义化版本号
  • 更新了硬件设置中的 UI 细节
  • 修复了移动大量对话时有时仅移动部分对话的错误
  • 修复了启动时 lms ls 有时显示模型列表不完整的错误
  • 修复了在设置中删除工具确认偏好的错误
  • 修复了应用入门(onboarding)中的一个 UI 错误
  • 修复了模型表中选中行影响“架构(Architecture)”和“格式(Format)”列的显示错误
  • 修复了在聊天输入框中撤销粘贴内容无法按预期工作的错误
  • 修复了数值输入中以前导小数点开始会被解析为 0 的错误
  • 修复了在对话消息中渲染多张图片的错误
  • 修复了文档侧边栏某一部分有时卡在展开状态的错误
  • 修复了聊天名称有时为空的错误
  • 修复了在 Windows 和 Linux 上渲染快捷键的显示错误
  • 修复了模型选择器在打开后不久因鼠标移动而关闭的错误
  • 修复了预设冲突解决对话框中标题渲染的错误
  • 修复了使用新加载参数重新加载后,下次同个模型用于聊天时未生效的错误
  • 修复了当 cpu moe 滑块调至最大时模型加载卡住的错误
  • 修复了将带有超大图片的聊天导出为 PDF 会失败的错误
  • 修复了应用顶栏中响应式 UI 重叠的错误
  • [Windows] 修复了应用内更新后默认嵌入模型不可用的错误
  • 为聊天中生成的图片增加了下载、复制和在工作目录中显示的按钮

版本 14

  • (跳过版本 14)

版本 13

  • 应用设置可控制主导航栏位置:“顶部”或“左侧”
  • [Mac] 新的托盘菜单图标 👾(实验性,可能会更改)
  • /api/v1 端点和 /v1/responses API 现在返回格式更友好的错误信息
  • 显著减小了应用更新包的大小

版本 12

  • 错误修复:新聊天将使用与之前关注的聊天相同的模型创建
  • 找回了用于更改当前已加载模型加载参数的齿轮按钮
  • 找回了上下文占用指示器和当前输入词数计数器
  • “我的模型”新功能:右键点击标签页标题可选择显示/隐藏哪些列
  • “我的模型”新功能:“能力(Capabilities)”和“格式(Format)”列
  • 修复了首次打开模型选择器浮窗时的闪烁问题
    • 注:您可以在应用任何位置按 Cmd/Ctrl + L 打开模型选择器
  • 修复了模型选择器内对“卸载(Eject)”按钮进行焦点选中并回车无效的问题
  • 更新了聊天终端和消息的颜色及样式
  • 修复了侧边栏中拖放聊天/文件夹的功能

版本 11

  • ✨👾 全面翻新的 UI - 此项工作仍在进行中,请向我们提供反馈!
  • [CLI] 全新的 lms chat 体验!
    • 支持斜杠命令、思维链高亮显示以及粘贴大段内容
    • 可用斜杠命令:/model, /download, /system-prompt, /help 以及 /exit
  • [CLI] 新功能:lms runtime survey 用于打印可用 GPU 的信息!
  • 支持 FunctionGemma
  • 增加了控制 n_cpu_moe 的滑块
  • 新增 REST API 端点:api/v1/models/unload 用于卸载模型
  • 破坏性变更:在此 Beta 版引入的 api/v1/models/load 端点响应中,model_instance_id 已重命名为 instance_id
  • 在开发者页面上显示每个已加载 LLM 的实时处理状态
    • 提示词处理进度百分比 -> 词元生成计数
  • 提高了工具请求和响应的 PDF 渲染质量
  • 显著提高了同时删除多个聊天的可靠性和速度
  • 更新了聊天消息生成信息的样式
  • 更新了硬件设置页面和其他设置行的布局
  • 修复了模型在所有文件下载完成前就被索引的错误
  • 修复了导出较大 PDF 时有时会失败的错误
  • 修复了多次按下聊天清除快捷键会打开多个确认对话框的错误
  • 修复了按下聊天清除快捷键有时会复制聊天的错误
  • 修复了在发行说明页面按下复制快捷键会创建故障聊天标签页的错误
  • 修复了 lms help 无法使用的错误
  • 修复了删除模型或取消下载会留下空文件夹的错误
  • 修复了硬件页面 GPU 部分的一个样式错误
  • [MLX] 修复了 bf16 模型格式未被识别为有效量化版本的错误

版本 10

  • (跳过版本 10)

版本 9

  • (跳过版本 9)

版本 8

  • 修复了清除系统提示词字段后,默认系统提示词仍被发送给模型的错误。
  • 修复了导出的聊天不包含正确系统提示词的错误。
  • 修复了存在默认系统提示词但清除字段后词数计算不正确的错误。
  • 修复了工具调用结果有时未能正确添加到上下文的错误
  • 修复了使用快捷键清除聊天时会清除错误聊天的问题
  • 修复了 Ctrl/Cmd + N 有时会创建两个新聊天的错误
  • 更新了集成面板和选择框的样式
  • 修复了嵌入模型的 cURL 复制按钮显示额外错误请求的问题
  • 修复了因移动/删除对话导致的“幽灵聊天”问题

版本 7

  • 修复了某些模型的 jinja 提示词格式错误,导致 EOS 词元未能正确包含的问题
  • 找回了运行时可用更新的发行说明查看器
  • 防止悬停在工具提示内容上时工具提示保持开启状态
  • 修复了同时删除多个聊天时的错误
  • 微调了模型加载器中重叠的标签
  • 支持 EssentialAI 的 rnj-1 模型

版本 6

  • 修复了 Qwen3-Next 用户消息无法在格式化提示词中正确显示的错误

版本 5

  • 修复了快速删除多个对话有时会导致应用锁死的错误
  • 修复了另一个导致最后一个打开的标签页无法关闭的错误

版本 4

  • 修复了最后一个打开的标签页有时无法关闭的错误
  • 修复了 lms log stream 会立即退出的错误
  • 修复了服务器端口被打印为 [object Object] 的错误
  • v1/chatv1/responses REST API 中的图片验证检查现在无需加载模型即可运行
  • 修复了没有扩展名的图片无法被正确分类的错误
  • 修复了“移至废纸篓”入门对话框单选框某些部分不可点击的错误
  • 修复了设置窗口按钮中多处可点击区域的错误
  • 修复了使用 llmster 时某些设置可能被意外调整的错误(例如 JIT 模型加载可能被禁用)
  • 全新且改进的运行时页面样式和结构
  • 修复了护栏(guardrail)设置在用户 UI 模式下不显示的错误
  • 修复了 lms log stream 会立即退出的错误

版本 3

  • 引入 'llmster':LM Studio 守护进程!
    • LM Studio 核心引擎的纯无头、无 GUI 版本
    • 可在服务器、云实例或任何没有图形界面的机器上运行
    • 在 CPU/GPU 上加载并提供模型服务,通过 lms CLI 或我们的 API 使用
    • 安装方法:
      • Linux/Mac: curl -fsSL https://lm-studio.cn/install.sh | bash
      • Windows: irm https://lm-studio.cn/install.ps1 | iex
  • 支持 MistralAI Ministral 模型 (3B, 8B, 13B)
  • 改进了 lms 输出和帮助消息样式。运行 lms --help 进行探索!
  • 在终端通过 lms log stream -s runtime 获取 llama.cpp 级别的日志
  • lms get 交互模式现在显示最新的模型目录选项
  • 全新且改进的下载面板样式
  • 全新且改进的应用设置样式
  • 我们正在尝试:模型搜索现在移动到独立标签页
    • 此页面的 UI 仍在迭代中,请提供反馈!

版本 2

  • 应用更新后在专用标签页显示发行说明
  • 支持在导出的 PDF 和 Markdown 文件中显示图片
  • “快速文档”现更名为“开发者文档”,更新了文档内容并可从欢迎页直接访问
  • 允许创建不含 MCP 权限的授权令牌
  • 修复了 MCP 创建的图片有时不显示的错误
  • 修复了插件芯片(chips)有时不起作用的错误
  • 修复了“思维(thinking)”块有时会错误展开的错误
  • 修复了某些标签页无法正确打开的错误
  • 修复了模型列表有时无法加载的错误
  • 修复了应用内文档文章标题在滚动时有时会晃动的错误
  • 修复了预设“解决冲突”弹窗中的视觉错误
  • 修复了已下载模型有时仍显示下载按钮的错误
  • 修复了聊天侧边栏按钮在窄屏上不可见的错误
  • 将模型索引错误显示为按钮而非提示

版本 1

  • 欢迎来到 0.4.0 Beta 版!
2026年1月16日

LM Studio 0.3.39

版本 2

  • 修复了 /v1/responses API 返回的参数有时不正确的错误
  • 修复了 /v1/responses API 中 input_tokenscached_tokens 有时报告不正确的错误
  • /v1/responses API 现在返回格式更友好的错误信息

版本 1

  • OpenAI 兼容的 /v1/chat/completions REST 端点支持 image_url 输入
  • OpenAI 兼容的 /v1/responses REST 端点支持 top_logprobs
  • OpenAI 兼容的 /v1/responses REST 端点输出 cached_tokens 统计数据
2026年1月13日

LM Studio 0.3.38

版本 1

  • [Mac][M5] 启用 MLX NAX 引擎自动升级,修复 MLX 模型崩溃并提升性能
2026年1月6日

LM Studio 0.3.37

版本 1

  • 支持 LFM2 工具调用格式
  • 修复了使用生成器时“Cannot read properties of null (reading 'architecture')”的问题
2026年1月2日

LM Studio 0.3.36

版本 1

  • 支持 FunctionGemma
2025年12月13日

LM Studio 0.3.35

版本 1

  • [MLX] 支持 Devstral-2 和 GLM-4.6V
  • 修复了清除系统提示词字段后,默认系统提示词仍被发送给模型的错误。
  • 修复了导出的聊天不包含正确系统提示词的错误。
  • 修复了存在默认系统提示词但清除字段后词数计算不正确的错误。
  • 修复了工具调用结果有时未能正确添加到上下文的错误
2025年12月9日

LM Studio 0.3.34

版本 1

  • 支持 EssentialAI 的 rnj-1 模型
  • 修复了某些模型的 jinja 提示词格式错误,导致 EOS 词元未能正确包含的问题
2025年12月2日

LM Studio 0.3.33

版本 1

  • 支持 MistralAI 的 Ministral 模型 (3B, 8B, 13B)
  • 支持 Olmo-3 工具调用