文档

以服务方式运行 LM Studio(无头模式)

高级

从 v0.3.5 版本开始,LM Studio 可以作为服务运行,无需图形用户界面。这对于在服务器上或本地机器后台运行 LM Studio 非常有用。


以服务方式运行 LM Studio

以服务方式运行 LM Studio 包含多项新功能,旨在提高 LM Studio 作为开发者工具的效率。

  • 无需图形用户界面运行 LM Studio 的能力
  • 在机器登录时启动 LM Studio LLM 服务器,无头模式
  • 按需加载模型

在机器登录时运行 LLM 服务

要启用此功能,请前往应用程序设置(Cmd / Ctrl + ,)并选中在登录时运行 LLM 服务器的复选框。

undefined

启用 LLM 服务器在机器登录时启动

启用此设置后,退出应用程序会将其最小化到系统托盘,LLM 服务器将继续在后台运行。


针对 OpenAI 端点的即时 (JIT) 模型加载

在将 LM Studio 用作具有其他前端或应用程序的 LLM 服务时非常有用。

undefined

按需加载模型


当 JIT 加载开启时

  • /v1/models 的调用将返回所有已下载的模型,而不仅仅是已加载到内存中的模型。
  • 对推理端点的调用将在模型尚未加载到内存中时将其加载到内存中。

当 JIT 加载关闭时

  • /v1/models 的调用将仅返回已加载到内存中的模型。
  • 必须先将模型加载到内存中才能使用它。
自动卸载呢?

截至 LM Studio 0.3.5 版本,尚未实现自动卸载功能。通过 JIT 加载加载的模型将保留在内存中,直到您卸载它们。我们预计在不久的将来会实现更复杂的内存管理。如果您有任何反馈或建议,请告知我们。


自动服务器启动

您的上次服务器状态将保存并在应用程序或服务启动时恢复。

要以编程方式实现此目的,可以使用以下命令

lms server start
专业提示

如果您尚未这样做,请按照此处 的说明在您的机器上引导 lms


社区

LM Studio Discord 服务器上与其他 LM Studio 开发人员聊天,讨论大型语言模型、硬件等。

请在lmstudio-bug-tracker GitHub 仓库中报告错误和问题。