文档
模型上下文协议 (MCP)
模型 (model.yaml)
您可以通过将兼容的模型放置在预期的目录结构中,来使用您在 LM Studio 之外下载的模型。
lms import(实验性)要导入您在 LM Studio 之外下载的 GGUF 模型,请在终端中运行以下命令
lms import <path/to/model.gguf>

在“我的模型”选项卡中管理您的模型目录
LM Studio 旨在保留从 Hugging Face 下载的模型的目录结构。预期的目录结构如下
~/.lmstudio/models/ └── publisher/ └── model/ └── model-file.gguf
例如,如果您有一个由 infra-ai 发布的名为 ocelot-v1 的模型,其结构将如下所示
~/.lmstudio/models/ └── infra-ai/ └── ocelot-v1/ └── ocelot-v1-instruct-q4_0.gguf
在 LM Studio Discord 服务器上与其他 LM Studio 用户聊天,讨论大型语言模型、硬件等。
本页源文件可在 GitHub 上找到