文档

本地运行大型语言模型 (LLM)

预设

API

用户界面

高级

关于 LM Studio

LM Studio 是一款桌面应用程序,用于在您的计算机上本地开发和实验大型语言模型 (LLM)。

主要功能

  • 用于运行本地 LLM 的桌面应用程序
  • 熟悉的聊天界面
  • 搜索和下载功能(通过 Hugging Face 🤗)
  • 一个可侦听类似 OpenAI 端点的本地服务器
  • 用于管理本地模型和配置的系统

如何安装 LM Studio?

前往下载页面并下载适用于您操作系统的安装程序。

LM Studio 适用于 macOS、Windows 和 Linux。


系统要求

LM Studio 通常支持 Apple Silicon Mac、x64/ARM64 Windows 电脑和 x64 Linux 电脑。

请查阅系统要求页面了解更多详细信息。


运行 llama.cpp (GGUF) 或 MLX 模型

LM Studio 支持在 Mac、Windows 和 Linux 上使用 llama.cpp 运行 LLM。

在 Apple Silicon Mac 上,LM Studio 也支持使用 Apple 的 MLX 运行 LLM。

要安装或管理 LM Runtimes,请在 Mac 上按 Shift R 或在 Windows/Linux 上按 Ctrl Shift R


在您的计算机上运行诸如 LlamaPhiDeepSeek R1 等 LLM

要在您的计算机上运行 LLM,您首先需要下载模型权重。

您可以在 LM Studio 中直接完成此操作!请参阅下载 LLM 获取指导。


在您的计算机上完全离线与文档聊天

您可以将文档附加到聊天消息中,并完全离线地与它们交互,这也被称为“RAG”。

有关如何使用此功能的更多信息,请参阅与文档聊天指南。

在您自己的应用程序和脚本中使用 LM Studio 的 API

LM Studio 提供了一个 REST API,您可以使用它在自己的应用程序和脚本中与本地模型进行交互。


社区

加入 LM Studio Discord 社区,提出问题、分享知识,并从其他用户和 LM Studio 团队那里获得帮助。