文档

离线操作

LM Studio 可以完全离线运行,只需先获取一些模型文件。

通常,LM Studio 不需要互联网连接即可工作。这包括与模型聊天、与文档聊天或运行本地服务器等核心功能,所有这些都不需要互联网。

无需网络连接的操作

使用已下载的 LLM

一旦您将 LLM 下载到您的机器上,模型就会在本地运行,您就可以完全离线使用了。您在 LM Studio 中与 LLM 聊天时输入的任何内容都不会离开您的设备。

与文档聊天 (RAG)

当您将文档拖放到 LM Studio 中进行聊天或执行 RAG 时,该文档会保留在您的机器上。所有文档处理都在本地完成,您上传到 LM Studio 的任何内容都不会离开应用程序。

运行本地服务器

LM Studio 可以用作服务器,在 localhost 或本地网络上提供 LLM 推理。对 LM Studio 的请求使用 OpenAI 端点并返回类似 OpenAI 的响应对象,但这些请求都保留在本地。

需要网络连接的操作

以下描述的某些操作依赖于互联网连接。一旦您将 LLM 下载到您的机器上,您就可以完全离线使用了。

搜索模型

当您在“发现”选项卡中搜索模型时,LM Studio 会发出网络请求(例如到 huggingface.co)。没有互联网连接,搜索将无法工作。

下载新模型

为了下载模型,您需要稳定的(并且速度相当快)互联网连接。您也可以“侧载”模型(使用从应用程序外部获取的模型)。请参阅侧载模型的说明。

“发现”选项卡中的模型目录

LM Studio 的每个版本都内置了初始模型目录。目录中的条目通常是在我们发布时在线目录的状态。但是,为了显示每个模型的统计数据和下载选项,我们需要发出网络请求(例如到 huggingface.co)。

下载运行时

LM 运行时是独立打包的软件库或 LLM 引擎,允许运行某些格式的模型(例如 llama.cpp)。从 LM Studio 0.3.0 开始(阅读公告),无需完整的 LM Studio 更新即可轻松下载甚至热插拔运行时。要检查可用的运行时并下载它们,我们需要发出网络请求。

检查应用程序更新

在 macOS 和 Windows 上,LM Studio 有一个内置的应用程序更新程序。Linux 应用程序内更新程序正在开发中。当您打开 LM Studio 时,应用程序更新程序将发出网络请求以检查是否有任何新的更新可用。如果有新版本,应用程序将显示通知,让您立即更新或稍后更新。没有互联网连接,您将无法通过应用程序内更新程序更新应用程序。

本页源代码可在 GitHub 上获取