🎉 新功能:推出 lmstudio-pythonlmstudio-js SDK 库!

LM Studio

你的本地 AI 工具包。

在你的电脑上下载并运行 Llama、DeepSeek、Mistral、Phi。

hero
新手友好,兼具专家级功能

易于上手,探索无限

发现和下载开源模型,在聊天中使用或运行本地服务器

在你的电脑上轻松运行 LLM,例如 Llama 和 DeepSeek。无需专业知识

LM Studio app screenshot
库:

跨平台本地 AI SDK

LM Studio SDK:构建本地 AI 应用,无需处理依赖项

Python
TypeScript
使用 pip安装 SDK
pip install lmstudio
LLM 聊天
Agentic 工具
结构化输出
管理模型
import lmstudio as lms

llm = lms.llm() # Get any loaded LLM

prediction = llm.respond_stream("What is a Capybara?")

for token in prediction:
    print(token, end="", flush=True)

常见问题

概括:该应用不会收集数据或监控你的行为。你的数据保留在本地机器上。

不会。使用本地 LLM 的主要原因之一是隐私,而 LM Studio 正是为此而设计的。你的数据保持私密性并保留在本地机器上。访问离线操作页面了解更多信息。

LM Studio 可在 M1/M2/M3/M4 Mac,以及支持 AVX2 的 Windows (x86 或 ARM) 和 Linux PC (x86) 上运行。访问系统要求页面以获取最新信息。

你可以运行来自 Hugging Face 的任何兼容的大型语言模型 (LLM),包括 GGUF (llama.cpp) 格式和 MLX 格式 (仅限 Mac)。你可以运行 GGUF 文本嵌入模型。某些模型可能不受支持,而另一些模型可能太大而无法在你的机器上运行。尚不支持图像生成模型。请参阅模型目录以查看精选模型。

LM Studio GUI 应用程序不是开源的。但是,LM Studio 的 CLI lmsCore SDK 和我们的 MLX 推理引擎 都是 MIT 许可的开源软件。此外,LM Studio 使你可以轻松使用领先的开源库(如 llama.cpp),而无需具备编译或集成它们的专业知识。

llama.cpp 是一个出色的开源库,它提供了一种强大而高效的方式在边缘设备上运行 LLM。它由 Georgi Gerganov 创建并领导。LM Studio 利用 llama.cpp 在 Windows、Linux 和 Mac 上运行 LLM。

请填写 LM Studio 工作版申请表,我们会尽快回复你。

是的!我们一直在寻找优秀的构建者加入我们的团队。如果你有兴趣,请发送电子邮件至 [email protected],简要介绍你自己和你做过的相关项目。

LM Studio

开始使用 LM Studio