文档

lms — LM Studio 的命令行界面

LM Studio 自带 lms,这是一个用于编写脚本和自动化本地 LLM 工作流程的命令行工具。

lms 采用 MIT 许可证,其开发代码位于 GitHub 上的此仓库:https://github.com/lmstudio-ai/lms


信息

👉 使用 lms 之前,您至少需要运行一次 LM Studio。

安装 lms

lms 与 LM Studio 一起提供,位于 LM Studio 工作目录下的 /bin 目录中。

使用以下命令将 lms 添加到您的系统路径。

在 macOS 或 Linux 上引导 lms

在您的终端中运行以下命令

~/.cache/lm-studio/bin/lms bootstrap

在 Windows 上引导 lms

在 **PowerShell** 中运行以下命令

cmd /c %USERPROFILE%/.cache/lm-studio/bin/lms.exe bootstrap

验证安装

打开一个 **新的终端窗口** 并运行 lms

您将获得当前输出

$ lms
lms - LM Studio CLI - v0.2.22
GitHub: https://github.com/lmstudio-ai/lmstudio-cli

Usage
lms <subcommand>

where <subcommand> can be one of:

- status - Prints the status of LM Studio
- server - Commands for managing the local server
- ls - List all downloaded models
- ps - List all loaded models
- load - Load a model
- unload - Unload a model
- create - Create a new project with scaffolding
- log - Log operations. Currently only supports streaming logs from LM Studio via `lms log stream`
- version - Prints the version of the CLI
- bootstrap - Bootstrap the CLI

For more help, try running `lms <subcommand> --help`

使用 lms 自动化和调试您的工作流程

启动和停止本地服务器

lms server start
lms server stop

列出机器上的本地模型

lms ls

这将反映当前的 LM Studio 模型目录,您可以在应用程序的 **📂 我的模型** 选项卡中设置。

列出当前加载的模型

lms ps

加载模型(带选项)

lms load [--gpu=max|auto|0.0-1.0] [--context-length=1-N]

--gpu=1.0 表示“尝试将 100% 的计算卸载到 GPU”。

  • 可选地,为您的本地 LLM 分配一个标识符
lms load TheBloke/phi-2-GGUF --identifier="gpt-4-turbo"

如果您希望保持模型标识符一致,这将非常有用。

卸载模型

lms unload [--all]