文档

LM Studio 文档

了解如何使用 LM Studio 在本地运行 Llama、DeepSeek、Qwen、Phi 和其他大型语言模型(LLM)。

要获取 LM Studio,请前往下载页面,下载适用于您操作系统的安装程序。

LM Studio 支持 macOS、Windows 和 Linux。


我可以用 LM Studio 做什么?

  • 下载并运行 gpt-oss 或 Llama、Qwen 等本地 LLM
  • 使用简单灵活的聊天界面
  • 连接 MCP 服务器并与本地模型一起使用
  • 搜索和下载功能(通过 Hugging Face 🤗)
  • 在类似 OpenAI 的端点上提供本地模型,包括本地和网络
  • 管理您的本地模型、提示和配置

系统要求

LM Studio 通常支持 Apple Silicon Macs、x64/ARM64 Windows PC 和 x64 Linux PC。

请查阅系统要求页面以获取更详细的信息。


运行 llama.cpp (GGUF) 或 MLX 模型

LM Studio 支持在 Mac、Windows 和 Linux 上使用llama.cpp 运行 LLM。

在 Apple Silicon Macs 上,LM Studio 还支持使用 Apple 的MLX 运行 LLM。

要安装或管理 LM Runtimes,在 Mac 上按 Shift R,或在 Windows/Linux 上按 Ctrl Shift R


LM Studio 作为 MCP 客户端

您可以在 LM Studio 中安装 MCP 服务器,并将其与本地模型一起使用。

更多信息请参见文档:使用 MCP 服务器

如果您正在开发 MCP 服务器,请查看添加到 LM Studio 按钮


在您的计算机上运行 gpt-oss、Llama、Qwen、Mistral 或 DeepSeek R1 等 LLM

要在您的计算机上运行 LLM,您首先需要下载模型权重。

您可以在 LM Studio 中直接完成此操作!请参见下载 LLM 获取指导。


在您的计算机上完全离线地与文档聊天

您可以将文档附加到聊天消息中,并完全离线地与它们进行交互,这也被称为“RAG”。

与文档聊天指南中阅读有关如何使用此功能的更多信息。

从您自己的应用程序和脚本中使用 LM Studio 的 API

LM Studio 提供了一个 REST API,您可以使用它从您自己的应用程序和脚本中与本地模型进行交互。


社区

加入 LM Studio 社区Discord,提问、分享知识,并获得其他用户和 LM Studio 团队的帮助。

此页面的源文件可在GitHub上获取