文档
LM Studio 文档
了解如何使用 LM Studio 在本地运行 Llama、DeepSeek、Qwen、Phi 和其他大型语言模型(LLM)。
要获取 LM Studio,请前往下载页面,下载适用于您操作系统的安装程序。
LM Studio 支持 macOS、Windows 和 Linux。
LM Studio 通常支持 Apple Silicon Macs、x64/ARM64 Windows PC 和 x64 Linux PC。
请查阅系统要求页面以获取更详细的信息。
LM Studio 支持在 Mac、Windows 和 Linux 上使用llama.cpp
运行 LLM。
在 Apple Silicon Macs 上,LM Studio 还支持使用 Apple 的MLX
运行 LLM。
要安装或管理 LM Runtimes,在 Mac 上按 ⌘
Shift
R
,或在 Windows/Linux 上按 Ctrl
Shift
R
。
您可以在 LM Studio 中安装 MCP 服务器,并将其与本地模型一起使用。
更多信息请参见文档:使用 MCP 服务器。
如果您正在开发 MCP 服务器,请查看添加到 LM Studio 按钮。
要在您的计算机上运行 LLM,您首先需要下载模型权重。
您可以在 LM Studio 中直接完成此操作!请参见下载 LLM 获取指导。
您可以将文档附加到聊天消息中,并完全离线地与它们进行交互,这也被称为“RAG”。
在与文档聊天指南中阅读有关如何使用此功能的更多信息。
LM Studio 提供了一个 REST API,您可以使用它从您自己的应用程序和脚本中与本地模型进行交互。
加入 LM Studio 社区Discord,提问、分享知识,并获得其他用户和 LM Studio 团队的帮助。
此页面的源文件可在GitHub上获取
本页内容
我可以用 LM Studio 做什么?
系统要求
运行 llama.cpp (GGUF) 或 MLX 模型
LM Studio 作为 MCP 客户端
在您的计算机上运行 gpt-oss、Llama、Qwen、Mistral 或 DeepSeek R1 等 LLM
在您的计算机上完全离线地与文档聊天
从您自己的应用程序和脚本中使用 LM Studio 的 API
社区