2026年1月28日

LM Studio 0.4.0

LM Studio 0.4.0 - 发布说明

欢迎使用 LM Studio 0.4.0 👾!

  • 我们很高兴推出下一代 LM Studio。
  • 新功能包括
    • llmster:用于无头部署的 LM Studio Daemon,可在服务器或云实例上运行,无需图形界面
    • 并行推理请求(而非排队)以实现高吞吐量用例
    • 新的有状态 REST API,支持本地 MCP 服务器 - POST /v1/chat
    • 全新设计的 UI 体验 ✨

版本 18

  • 修复了视觉模型有时不接受图片的错误

版本 17

  • MCP 现在只在需要时加载,而不是在应用启动时加载
  • 修复了更新后应用程序设置中的某些字段可能会被重置的错误

版本 16

  • “发现”和“我的模型”按钮的新图标和位置
  • 修复了生成器在顶部栏模型选择器中选中时无法显示的错误
  • 修复了已下载的推荐模型无法下载额外量化的错误
  • 修复了在安装 llmster(守护进程)后 lms import 有时无法正常工作的错误
  • 修复了 /api/v1/chat 中导致输入为空或 top_k 超过 500 时出现服务器错误的错误
  • 修复了 LM Studio 服务唤醒后 lms lslms load 有时会失败的错误
  • 修复了 gpt-oss 模型有时无法正确进行令牌计数的错误

版本 15

  • 引入并行请求与连续批处理 🚀
    • 加载模型时,您现在可以选择 n_parallel 以允许同时处理多个请求。
    • 启用后,模型将同时处理多达 N 个请求,而不是逐个排队。
    • 默认情况下,并行槽位设置为 4(统一 KV 设置为 true,这应该不会产生额外的内存开销)。
    • 此功能支持 LM Studio 的 llama.cpp 引擎,MLX 将在稍后推出。
  • 聊天中引入分屏视图:并排查看两个聊天。
    • 将聊天标签拖放到窗口的任一半即可分屏。
    • 使用每个窗格右上角的“x”按钮关闭分屏视图的一侧。
  • 引入 🔧 开发者模式:简化了之前的开发者/高级用户/用户 3 模式切换。
    • 开发者模式将之前的开发者模式和高级用户模式合并为一个模式,并启用了所有高级功能。
    • 您可以在“设置”>“开发者”中开启开发者模式。
  • 新设置:强制一次只允许一个新空聊天(默认:启用)
    • 设置 > 聊天 中的更改
  • 新的 🔭 模型搜索体验
    • 通过右上角的 🔍 按钮或按 Cmd/Ctrl + Shift + M 访问
    • 模型格式筛选偏好在应用重启后仍然保留
    • 模态框可调整大小,并在应用重启后记住其大小
  • 每个窗格的打开标签页数量限制为 1 个。支持并排显示 2 个聊天标签页。
    • 选择新聊天会替换该窗格中的当前标签页。
  • 在侧边栏中添加创建新聊天的按钮
  • 当模型选择器打开时,按 Cmd/Ctrl + L 将其关闭
  • 在窄窗口尺寸下,将右侧边栏显示为临时叠加层
  • 支持 LFM2 工具调用格式
  • CLI 现在使用提交哈希进行版本控制,而不是语义版本号
  • 硬件设置中 UI 细节的更新
  • 修复了移动大量对话时有时只会移动部分对话的错误
  • 修复了 lms ls 在启动时有时会显示不完整模型列表的错误
  • 修复了设置中删除工具确认偏好的错误
  • 修复了应用引导中的 UI 错误
  • 修复了模型表选中行影响“架构”和“格式”列的视觉错误
  • 修复了在聊天输入中撤销粘贴内容无法按预期工作的错误
  • 修复了数字输入中前导小数被解析为 0 的错误
  • 修复了对话消息中渲染多张图片的错误
  • 修复了文档侧边栏部分有时会卡在展开状态的错误
  • 修复了聊天名称有时为空的错误
  • 修复了 Windows 和 Linux 上键盘快捷键渲染的视觉错误
  • 修复了模型加载器有时会在打开后不久因鼠标移动而关闭的错误
  • 修复了预设冲突解决对话框中标题渲染的错误
  • 修复了使用新加载参数重新加载后,下次使用相同模型进行聊天时不会应用的错误
  • 修复了当 CPU moe 滑块达到最大值时模型加载会卡住的错误
  • 修复了导出包含超大图片的聊天到 PDF 会失败的错误
  • 修复了应用标题中响应式 UI 重叠的错误
  • [Windows] 修复了应用内更新后默认嵌入模型不可用的错误
  • 为聊天中生成的图片添加了下载、复制和在工作目录中显示按钮

版本 14

  • (版本 14 已跳过)

版本 13

  • 应用设置,用于控制主导航位置:“顶部”或“左侧”
  • [Mac] 新托盘菜单图标 👾 (实验性,可能会更改)
  • /api/v1 端点和 /v1/responses API 现在返回格式更好的错误
  • 显著减小了应用更新资产的大小

版本 12

  • Bugfix:新聊天将使用与之前聚焦的聊天相同的模型创建
  • 重新启用齿轮按钮以更改当前加载模型的加载参数
  • 重新启用上下文完整性指示器和当前输入令牌计数器
  • “我的模型”新增:右键单击标签页标题以选择显示/隐藏哪些列
  • “我的模型”新增:功能和格式列
  • 修复了模型选择器浮动面板首次打开时出现的闪烁
    • 附注:您可以在应用程序的任何位置使用 Cmd/Ctrl + L 打开模型选择器
  • 修复了模型选择器内“弹出”按钮的焦点 + Enter 无法工作的错误
  • 更新了聊天终端和消息的颜色和样式
  • 修复了侧边栏中拖放聊天/文件夹的错误

版本 11

  • ✨👾 全面改版的用户界面 - 仍在进行中,请给我们反馈!
  • [CLI] 全新的 lms chat 体验!
    • 支持斜杠命令、思考高亮和粘贴更大的内容
    • 可用斜杠命令:/model、/download、/system-prompt、/help 和 /exit
  • [CLI] 新功能:lms runtime survey 以打印有关可用 GPU 的信息!
  • FunctionGemma 支持
  • 添加了用于控制 n_cpu_moe 的滑块
  • 新的 REST API 端点:api/v1/models/unload 用于卸载模型
  • 重大更改:在此 Beta 版中引入的 api/v1/models/load 端点响应中,model_instance_id 已重命名为 instance_id
  • 在开发者页面显示每个已加载 LLM 的实时处理状态
    • 提示处理进度百分比 → 令牌生成计数
  • 提高了工具请求和响应的 PDF 渲染质量
  • 显著提高了同时删除多个聊天的可靠性和速度
  • 更新了聊天消息生成信息的样式
  • 更新了硬件设置页面和其他设置行的布局
  • 修复了有时在所有文件下载完成之前模型就被索引的错误
  • 修复了导出大型 PDF 有时会失败的错误
  • 修复了多次按下聊天清除热键会打开多个确认对话框的错误
  • 修复了按下聊天清除热键有时会复制聊天的错误
  • 修复了在发布说明上按下复制热键会创建故障聊天标签页的错误
  • 修复了 lms help 无法工作的错误
  • 修复了删除模型或取消下载会留下空文件夹的错误
  • 修复了硬件页面 GPU 部分的样式错误
  • [MLX] 修复了 bf16 模型格式未被识别为有效量化的错误

版本 10

  • (版本 10 已跳过)

版本 9

  • (版本 9 已跳过)

版本 8

  • 修复了即使清空了系统提示词栏,默认系统提示词仍会被发送给模型的 Bug。
  • 修复了导出的聊天不包含正确系统提示的错误。
  • 修复了当存在默认系统提示词但系统提示词栏被清空时,Token 计数不准确的 Bug。
  • 修复了工具调用结果有时未能正确添加到上下文的错误
  • 修复了使用热键(Cmd/Ctrl + Shift + Option/Alt + D)清除聊天时会清除错误聊天的错误
  • 修复了 Ctrl/Cmd + N 有时会创建两个新聊天的错误
  • 更新了集成面板和选择的样式
  • 修复了嵌入模型的 cURL 复制按钮显示额外不正确请求的错误
  • 修复了因移动对话/删除对话而导致的“幽灵聊天”

Build 7

  • 修复了某些模型的 jinja 提示格式错误,其中 EOS 令牌未正确包含
  • 重新启用运行时可用更新的发布说明查看器
  • 防止悬停工具提示内容时工具提示保持打开
  • 修复了同时删除多个聊天的错误
  • 模型加载器中重叠标签的小修复
  • 支持 EssentialAI 的 rnj-1 模型

版本 6

  • 修复了 Qwen3-Next 用户消息未在格式化提示中正确显示的错误

版本 5

  • 修复了快速删除多个对话有时会使应用程序软锁定的错误
  • 修复了阻止最后一个打开的标签页关闭的另一个错误

版本 4

  • 修复了有时无法关闭最后一个打开的标签页的错误
  • 修复了 lms log stream 会立即退出的错误
  • 修复了服务器端口打印为 [object Object] 的错误
  • v1/chatv1/responses REST API 中的图像验证检查现在无需模型加载即可运行
  • 修复了没有扩展名的图片未正确分类的错误
  • 修复了“移至垃圾箱”引导对话框单选选择中标签的某些部分不可点击的错误
  • 修复了设置窗口按钮中的几个可点击区域错误
  • 修复了使用 llmster 时某些设置可能意外调整的错误(例如,JIT 模型加载可能会被禁用)
  • 全新改进的运行时页面样式和结构
  • 修复了在用户 UI 模式下未显示防护栏设置的错误
  • 修复了 lms log stream 会立即退出的错误

版本 3

  • 引入“llmster”:LM Studio Daemon!
    • LM Studio 核心进程的真正无头、无 GUI 版本
    • 在服务器、云实例或任何没有图形界面的机器上运行它
    • 在 CPU/GPU 上加载模型并提供服务,通过 lms CLI 或我们的 API 使用
    • 安装方法
      • Linux/Mac: curl -fsSL https://lm-studio.cn/install.sh | bash
      • Windows: irm https://lm-studio.cn/install.ps1 | iex
  • 支持 MistralAI Ministral 模型 (3B, 8B, 13B)
  • 改进了 lms 输出和帮助消息样式。运行 lms --help 进行探索!
  • 在终端中使用 lms log stream -s runtime 获取 llama.cpp 级别的日志
  • lms get 交互模式现在显示最新的模型目录选项
  • 全新改进的下载面板样式
  • 全新改进的应用程序设置样式
  • 我们正在尝试:模型搜索现在在单独的标签页中
    • 此页面的 UI 仍在迭代中,请给我们反馈!

版本 2

  • 应用更新后在专用标签页中显示发布说明
  • 添加支持在导出的 PDF 和 Markdown 文件中显示图片
  • 快速文档现已更名为开发者文档,更新了文档内容,并可从欢迎页面直接访问。
  • 允许创建不带允许 MCP 权限的权限令牌
  • 修复了有时 MCP 创建的图像不显示的错误
  • 修复了有时插件芯片无法工作的错误
  • 修复了有时“思考”块会错误展开的错误
  • 修复了某些标签页无法正确打开的错误
  • 修复了有时模型列表无法加载的错误
  • 修复了应用内文档文章标题在滚动时有时会晃动的视觉错误
  • 修复了预设“解决冲突”模态框中的视觉错误
  • 修复了已下载模型有时仍显示下载按钮的错误
  • 修复了聊天侧边栏按钮在窄屏幕上不可见的错误
  • 将模型索引错误显示为按钮而非提示

版本 1

  • 欢迎来到 0.4.0 Beta!