文档
LM Studio 入门
您可以在 LM Studio 中本地使用 Llama 3.1、Phi-3 和 Gemma 2 等开放可用的大型语言模型 (LLM),充分利用您计算机的 CPU 和(可选)GPU。
请仔细检查您的计算机是否满足最低系统要求。
您有时可能会看到诸如开源模型
或开放权重模型
之类的术语。不同的模型可能在不同的许可下发布,其“开放性”程度也各不相同。为了在本地运行模型,您需要能够访问其“权重”,这些权重通常以一个或多个以.gguf
、.safetensors
等结尾的文件形式分发。
首先,安装最新版本的 LM Studio。您可以从此处获取。
设置完成后,您需要下载您的第一个 LLM。
前往“发现”选项卡下载模型。选择一个精选选项,或通过搜索查询(例如“Llama”
)搜索模型。有关下载模型的更深入信息,请参阅此处。
LM Studio 中的发现选项卡
前往聊天选项卡,然后
在 macOS 上使用cmd
+ L
,或在 Windows/Linux 上使用ctrl
+ L
快速打开模型加载器
加载模型通常意味着分配内存,以便在计算机的 RAM 中容纳模型的权重及其他参数。
模型加载后,您可以在“聊天”选项卡中与模型进行对话。
macOS 上的 LM Studio
在 LM Studio Discord 服务器上与其他 LM Studio 用户聊天,讨论 LLM、硬件等。
本页内容
快速入门
1. 将 LLM 下载到您的计算机
2. 将模型加载到内存
3. 聊天!
社区