文档

使用 LLM 进行预测

Agentic 工作流

文本嵌入

分词

模型信息

API 参考文档

内存中管理模型

AI 模型非常庞大。加载到内存可能需要一段时间。LM Studio 的 SDK 允许您精确控制此过程。

最常用方法

  • 使用 .model() 获取任何当前已加载的模型
  • 使用 .model("model-key") 来使用特定模型

高级 (手动模型管理)

  • 使用 .load("model-key") 加载模型的新实例
  • 使用 model.unload() 从内存中卸载模型

使用 .model() 获取当前模型

如果您已经在 LM Studio 中加载了模型(通过 GUI 或 lms load),您可以通过调用 .model() 而不带任何参数来使用它。

import { LMStudioClient } from "@lmstudio/sdk";
const client = new LMStudioClient();

const model = await client.llm.model();

使用 .model("model-key") 获取特定模型

如果您想使用特定模型,您可以将模型键作为参数提供给 .model()

已加载则获取,否则加载

调用 .model("model-key") 将在模型未加载时加载模型,或者在已加载时返回现有实例。

import { LMStudioClient } from "@lmstudio/sdk";
const client = new LMStudioClient();

const model = await client.llm.model("llama-3.2-1b-instruct");

使用 .load() 加载模型的新实例

使用 load() 加载模型的新实例,即使已存在一个实例。这允许您同时加载相同或不同模型的多个实例。

import { LMStudioClient } from "@lmstudio/sdk";
const client = new LMStudioClient();

const llama = await client.llm.load("llama-3.2-1b-instruct");
const another_llama = await client.llm.load("llama-3.2-1b-instruct", {
  identifier: "second-llama"
});

关于实例标识符的说明

如果您提供了已存在的实例标识符,服务器将抛出错误。因此,如果您不太在意,最好不要提供标识符,在这种情况下,服务器将为您生成一个。您也可以随时在 LM Studio 的服务器选项卡中查看!

使用 .unload() 从内存中卸载模型

一旦您不再需要模型,您可以通过在其句柄上简单调用 unload() 来卸载它。

import { LMStudioClient } from "@lmstudio/sdk";

const client = new LMStudioClient();

const model = await client.llm.model();
await model.unload();

设置自定义加载配置参数

您还可以在加载模型时指定相同的加载时配置选项,例如上下文长度和 GPU 卸载。

有关更多信息,请参阅加载时配置

设置自动卸载计时器 (TTL)

您可以为您加载的模型指定生存时间,即自上次请求后到模型卸载的空闲时间(以秒为单位)。有关更多信息,请参阅空闲 TTL

import { LMStudioClient } from "@lmstudio/sdk";

const client = new LMStudioClient();

const model = await client.llm.load("llama-3.2-1b-instruct", {
  ttl: 300, // 300 seconds
});