LM Studio 0.3.0

2024-08-22

我们非常激动地宣布 LM Studio 0.3.0 终于发布了 🥳。

LM Studio

自诞生以来,LM Studio 将多种要素整合在一起,让您能在本地计算机上充分利用大语言模型(LLM):

  • 一个完全离线运行且无遥测的桌面应用程序
  • 熟悉的聊天界面
  • 搜索与下载功能(通过 Hugging Face 🤗)
  • 一个可以在类似 OpenAI 的端点上进行监听的本地服务器
  • 用于管理本地模型和配置的系统

在本次更新中,我们基于过去一年运行本地大模型的经验,改进、深化并简化了上述多个方面。

您可以从 https://lm-studio.cn 下载适用于 Mac、Windows(x86 / ARM)或 Linux(x86)的 LM Studio。

LM Studio 0.3.0 的新功能

与您的文档对话

LM Studio 0.3.0 内置了相关功能,允许您提供一组文档给大模型,并针对它们提问。如果文档足够短(即符合模型的“上下文”窗口大小),LM Studio 会将文件内容完整添加到对话中。这对于支持长上下文的模型(如 Meta 的 Llama 3.1 和 Mistral Nemo)特别有用。

如果文档非常长,LM Studio 将选择使用“检索增强生成”(即 RAG)。RAG 意味着尝试从超长文档(或多个文档)中提取相关片段,并提供给模型作为参考。这种技术有时非常有效,但有时也需要进行一些调试和实验。

成功使用 RAG 的提示:在查询中尽可能提供详细的上下文。提及您希望在相关原始材料中出现的术语、观点和词汇。这通常会增加系统向大模型提供有用上下文的几率。一如既往,实验是找到最佳方案的最佳途径。

类似 OpenAI 的结构化输出 API

OpenAI 最近发布了一种基于 JSON-schema 的 API,可以实现可靠的 JSON 输出。LM Studio 0.3.0 支持在应用中运行的任何本地模型使用此功能!我们已经在应用内包含了相应的代码片段,请查看右侧面板上的开发者页面。

UI 主题

LM Studio 最初于 2024 年 5 月发布时采用了深色复古主题,甚至还加入了 Comic Sans 字体。标志性的深色主题广受欢迎,而 LM Studio 0.3.0 又引入了 3 个新主题:深色、浅色、棕褐色。选择“系统”即可根据您的系统深色模式设置自动切换。

自动加载参数,同时也具备完全的可定制性

有些人非常精通大模型加载和推理参数的细节。但我们中的许多人,理所当然地不想深究这些。 LM Studio 0.3.0 会根据您运行所用的硬件自动配置一切。如果您想亲自配置,LM Studio 0.3.0 也提供了更多自定义选项。

进阶提示:前往“我的模型”页面,点击每个模型旁边的齿轮图标。您可以设置每个模型的默认参数,这些参数将在应用内的任何地方生效。

在网络上提供服务

如果您进入服务器页面,会看到一个新的开关,显示“在网络上提供服务”(Serve on Network)。打开此开关将允许服务器接收来自“localhost”之外的请求。这意味着您可以在网络上的其他设备中使用 LM Studio 服务器。结合同时加载和运行多个模型的能力,这开辟了许多新的应用场景。

文件夹管理聊天记录

如果您同时进行多个项目,这将非常有用。您甚至可以嵌套文件夹!

每个聊天支持多次生成

LM Studio 之前已有“重新生成”功能。现在点击“重新生成”将保留之前的消息生成结果,您可以使用熟悉的左右箭头界面轻松地在它们之间切换。

如何将您的聊天记录从 LM Studio 0.2.31 迁移到 0.3.0

为了支持多版本生成等功能,我们在底层引入了新的数据结构。您可以通过进入“设置”并点击“迁移聊天记录”来迁移 0.3.0 之前的聊天。此操作将创建副本,不会删除任何旧文件。

更新完整列表

彻底焕新的用户界面

  • 包含主题、拼写检查和纠正功能。
  • 基于 lmstudio-js (TypeScript SDK) 构建。
  • 全新的聊天设置侧边栏设计。

基础 RAG(检索增强生成)

  • 可将 PDF、.txt 或其他文件直接拖放到聊天窗口中。
  • RAG 文件输入最大限制(PDF / .docx)增加至 30MB。
  • RAG 支持任何文件类型,但非 .pdf/.docx 文件将被视为纯文本读取。

自动 GPU 检测 + 卸载

  • 根据您的机器性能在 GPU 和 CPU 之间分配任务。
  • 仍支持手动覆盖设置。

浏览和下载“LM 运行时”

  • 无需更新整个应用程序即可下载最新的 LLM 引擎(例如 llama.cpp)。
  • 可用选项:ROCm、仅 AVX,后续还将有更多。

自动提示词模板

  • LM Studio 可读取模型文件的元数据并自动应用提示词格式。

全新开发者模式

  • 查看模型加载日志、为服务配置多个模型,并共享 LLM 到网络(不仅仅是 localhost)。
  • 支持带有 json_schema 的类似 OpenAI 的结构化输出。

用于组织聊天的文件夹

  • 创建文件夹以整理您的聊天。

提示词处理进度指示器

  • 显示提示词处理的百分比进度。

增强的模型加载器

  • 在加载模型前轻松配置加载参数(上下文、GPU 卸载)。
  • 能够为指定模型文件的每个可配置参数设置默认值。
  • 改进的模型加载器 UI,配有控制参数的复选框。

支持嵌入(Embedding)模型

  • 加载和运行嵌入模型。
  • 支持多个模型的并行化。

支持视觉模型

  • 在聊天和 API 中支持图像附件。

显示对话 Token 计数

  • 显示当前的 Token 数和总上下文。

提示词模板自定义

  • 能够覆盖提示词模板。
  • 编辑“Jinja”模板或手动提供前缀/后缀。
  • 预置聊天模板(ChatML、Alpaca、空白等)。

对话管理

  • 添加对话备注。
  • 从特定消息处克隆和分支聊天。

可自定义的聊天设置

  • 选择聊天风格和字体大小。
  • 记住每个模型在加载时的设置。

初始翻译支持

配置参数的副标题

  • 为每个配置参数提供说明性副标题。

更多