LM Studio
探索、下载和运行本地LLM
运行
支持的架构包括:
Llama 3.2
Mistral
Phi
Gemma
DeepSeek
Qwen 2.5
在您的电脑上
LM Studio在以下条件下提供:
使用条款使用LM Studio,您可以……
🤖 • 在您的笔记本电脑上运行LLM,完全离线
📚 • 与您的本地文档进行对话(0.3版新增功能)
👾 • 通过应用内聊天界面或兼容OpenAI的本地服务器使用模型
📂 • 从Hugging Face 🤗 仓库下载任何兼容的模型文件
🔭 • 在应用的“探索”页面直接发现新的和值得关注的LLM
LM Studio支持Hugging Face上的任何GGUF Llama、Mistral、Phi、Gemma、StarCoder等模型。
最低要求:M1/M2/M3/M4 Mac,或支持AVX2指令集的Windows/Linux电脑。
感谢以下项目的支持: llama.cpp 项目。
我们正在扩大团队。请查看我们的 职业机会页面.
请访问技术文档: https://lm-studio.cn/docs.
LM Studio会收集任何数据吗?
不会。使用本地LLM的主要原因之一是隐私,LM Studio的设计正是为了实现这一点。您的数据将保留在您的本地机器上,保持私密。
详情请查看 文档 > 离线操作。
我可以在工作中使用LM Studio吗?
我们很乐意为您提供支持。请填写LM Studio 商业应用申请表,我们会尽快与您联系。
最低硬件/软件要求是什么?
请访问系统要求页面获取最新信息。
你们正在招聘吗?
请查看我们的职业页面了解职位空缺。