文档
本地运行大型语言模型
确保您的计算机满足最低 系统要求。
您有时可能会看到诸如 开源模型
或 开放权重模型
之类的术语。不同的模型可能在不同的许可下发布,并具有不同程度的“开放性”。为了本地运行模型,您需要能够访问其“权重”,通常以一个或多个以 .gguf
、.safetensors
等结尾的文件形式分发。
首先,**安装最新版本的 LM Studio**。您可以从 此处 获取。
设置完成后,您需要**下载您的第一个 LLM**。
前往“发现”选项卡下载模型。选择一个已整理好的选项,或通过搜索查询(例如 "Llama"
)搜索模型。更多关于下载模型的深入信息,请参见 此处。
LM Studio 中的“发现”选项卡
前往**聊天**选项卡,然后
使用macOS上的cmd
+ L
或Windows/Linux上的ctrl
+ L
快速打开模型加载器
加载模型通常意味着分配内存,以便能够容纳模型的权重和计算机 RAM 中的其他参数。
加载模型后,您可以在“聊天”选项卡中与模型开始一来一回的对话。
macOS 上的 LM Studio
在LM Studio Discord 服务器上与其他 LM Studio 用户聊天,讨论 LLM、硬件等等。