文档

本地运行大型语言模型

您可以在 LM Studio 中本地使用公开可用的大型语言模型 (LLM),例如 Llama 3.1、Phi-3 和 Gemma 2,利用您计算机的 CPU 和可选的 GPU。

确保您的计算机满足最低 系统要求


信息

您有时可能会看到诸如 开源模型开放权重模型之类的术语。不同的模型可能在不同的许可下发布,并具有不同程度的“开放性”。为了本地运行模型,您需要能够访问其“权重”,通常以一个或多个以 .gguf.safetensors 等结尾的文件形式分发。


开始运行

首先,**安装最新版本的 LM Studio**。您可以从 此处 获取。

设置完成后,您需要**下载您的第一个 LLM**。

1. 将 LLM 下载到您的计算机

前往“发现”选项卡下载模型。选择一个已整理好的选项,或通过搜索查询(例如 "Llama")搜索模型。更多关于下载模型的深入信息,请参见 此处

undefined

LM Studio 中的“发现”选项卡

2. 将模型加载到内存

前往**聊天**选项卡,然后

undefined

使用macOS上的cmd + L 或Windows/Linux上的ctrl + L快速打开模型加载器

加载模型意味着什么?

加载模型通常意味着分配内存,以便能够容纳模型的权重和计算机 RAM 中的其他参数。

3. 开始聊天!

加载模型后,您可以在“聊天”选项卡中与模型开始一来一回的对话。

undefined

macOS 上的 LM Studio


社区

LM Studio Discord 服务器上与其他 LM Studio 用户聊天,讨论 LLM、硬件等等。