文档
离线操作
一般来说,LM Studio 的工作不需要互联网。这包括与模型聊天、与文档聊天或运行本地服务器等核心功能,这些都不需要互联网。
一旦您将 LLM 下载到您的机器上,模型将在本地运行,您应该可以完全离线使用。当您与 LLM 聊天时,您在 LM Studio 中输入的任何内容都不会离开您的设备。
当您将文档拖放到 LM Studio 中以与之聊天或执行 RAG 时,该文档会保留在您的机器上。所有文档处理都在本地完成,您上传到 LM Studio 中的任何内容都不会离开应用程序。
LM Studio 可以用作服务器,在本地主机或本地网络上提供 LLM 推理。对 LM Studio 的请求使用 OpenAI 端点并返回类似 OpenAI 的响应对象,但保持本地运行。
以下描述的几个操作依赖于互联网连接。一旦您将 LLM 下载到您的机器上,您应该可以完全离线使用。
当您在“发现”选项卡中搜索模型时,LM Studio 会发出网络请求(例如,到 huggingface.co)。没有互联网连接,搜索将无法工作。
为了下载模型,您需要稳定的(和足够快的)互联网连接。您也可以“侧载”模型(使用在应用程序外部获取的模型)。请参阅侧载模型的说明。
任何给定版本的 LM Studio 都附带一个内置的初始模型目录。目录中的条目通常是我们在发布版本时在线目录的状态。但是,为了显示每个模型的统计信息和下载选项,我们需要发出网络请求(例如,到 huggingface.co)。
LM 运行时是单独打包的软件库或 LLM 引擎,允许运行某些格式的模型(例如,llama.cpp
)。从 LM Studio 0.3.0 开始(阅读公告),可以轻松下载甚至热插拔运行时,而无需完全更新 LM Studio。为了检查可用的运行时并下载它们,我们需要发出网络请求。
在 macOS 和 Windows 上,LM Studio 有一个内置的应用程序更新程序,功能强大。linux 应用内更新程序正在开发中。当您打开 LM Studio 时,应用程序更新程序将发出网络请求,以检查是否有任何新更新可用。如果有新版本,应用程序将向您显示通知,让您立即更新或稍后更新。没有互联网连接,您将无法通过应用内更新程序更新应用程序。