文档
离线运行
一般来说,LM Studio 不需要互联网即可工作。这包括核心功能,例如与模型聊天、与文档聊天或运行本地服务器,这些都不需要互联网。
一旦您将LLM下载到您的机器上,模型将在本地运行,您就可以完全离线使用了。您在与LLM聊天时输入LM Studio中的任何内容都不会离开您的设备。
当您将文档拖放到LM Studio中与之聊天或执行RAG时,该文档会保留在您的机器上。所有文档处理都在本地完成,您上传到LM Studio中的任何内容都不会离开应用程序。
LM Studio可以用作服务器,在本地主机或本地网络上提供LLM推理。对LM Studio的请求使用OpenAI端点并返回类似OpenAI的响应对象,但保持本地。
下面描述的几个操作依赖于互联网连接。一旦您将LLM下载到您的机器上,您就可以完全离线使用了。
当您在“发现”选项卡中搜索模型时,LM Studio会发出网络请求(例如,到huggingface.co)。没有互联网连接,搜索将无法工作。
要下载模型,您需要稳定的(且速度相当快)的互联网连接。您也可以“侧载”模型(使用在应用程序外部获取的模型)。请参阅侧载模型的说明。
任何给定版本的LM Studio都附带内置的初始模型目录。目录中的条目通常是我们发布版本时在线目录的状态。但是,为了显示每个模型的统计信息和下载选项,我们需要发出网络请求(例如,到huggingface.co)。
LM运行时是单独打包的软件库或LLM引擎,允许运行特定格式的模型(例如llama.cpp
)。从LM Studio 0.3.0版本开始(阅读公告),无需完整的LM Studio更新即可轻松下载甚至热交换运行时。要检查可用的运行时并下载它们,我们需要发出网络请求。
在macOS和Windows上,LM Studio具有内置的应用程序更新程序。Linux中的应用程序更新程序正在开发中。当您打开LM Studio时,应用程序更新程序会发出网络请求以检查是否有任何新的更新可用。如果有新版本,应用程序会显示通知,让您立即或稍后更新。如果没有互联网连接,您将无法通过应用程序内更新程序更新应用程序。