LM Studio
    LM Studio文档
  • 模型目录
  • 文档
  • 博客
  • 下载
  • 首页
  • 模型
  • 文档
  • 博客
  • Discord
  • GitHub
  • 职业
  • LM Studio 应用
  • 下载 LM Studio

文档

常规

LM Studio 简介

系统要求

离线运行

主题

语言

UI 模式

在本地运行LLM

入门

下载模型

管理聊天

与文档聊天 (RAG)

API

本地LLM服务器

OpenAI兼容性API

LM Studio REST API (测试版)

配置

配置预设

提示模板

每个模型的设置

高级

无头模式

结构化输出

侧载模型

工具使用

CLI

安装 lms

lms 日志流

SDK (TypeScript)

简介 lmstudio.js

LMStudioClient

常规

LM Studio 简介

系统要求

离线运行

主题

语言

UI 模式

在本地运行LLM

入门

下载模型

管理聊天

与文档聊天 (RAG)

API

本地LLM服务器

OpenAI兼容性API

LM Studio REST API (测试版)

配置

配置预设

提示模板

每个模型的设置

高级

无头模式

结构化输出

侧载模型

工具使用

CLI

安装 lms

lms 日志流

SDK (TypeScript)

简介 lmstudio.js

LMStudioClient

本地LLM服务器

您可以从LM Studio的开发者选项卡中提供本地LLM服务,无论是在本地主机还是在网络上。

该服务器既可以在OpenAI兼容模式下使用,也可以作为lmstudio.js的服务器使用。

API选项

  • OpenAI兼容端点
  • LM Studio REST API(新的,测试版)
  • TypeScript SDK - lmstudio.js
undefined

加载并提供LM Studio的LLM服务

本页内容

- API选项