GGUF
MLX
•
mistral
MistralAI 的首个推理模型,基于 Mistral Small 3.1。
GGUF
MLX
•
qwen3
DeepSeek-R1-0528 模型的精简版,通过在 Qwen3 8B 基础模型上继续使用 DeepSeek-R1-0528 的思维链 (CoT) 进行后期训练而创建。
MLX
GGUF
•
mistral
MistralAI 的 Devstral 基于 Mistral Small 3.1。在 SWE-bench 上首次亮相,成为排名第一的开源模型。
GGUF
MLX
•
phi-4
Phi-4 系列中的轻量级开源模型。
GGUF
MLX
•
phi-4
先进的开源推理模型,基于 Phi-4 经过额外的强化学习微调,以实现更高的准确性。
GGUF
MLX
•
qwen3moe
Qwen3 模型家族的 235B 参数(MoE)版本。
GGUF
MLX
•
qwen3
Qwen3 模型家族的 32B 参数版本。
GGUF
MLX
•
qwen3moe
Qwen3 模型家族的 30B 参数(MoE)版本。
GGUF
MLX
•
qwen3
Qwen3 模型家族的 1.7B 参数版本。
GGUF
MLX
•
qwen3
Qwen3 模型家族的 4B 参数版本。
GGUF
MLX
•
qwen3
Qwen3 模型家族的 14B 参数版本。
GGUF
MLX
•
qwen3
Qwen3 模型家族的 8B 参数版本。
GGUF
MLX
•
gemma3
Google 最先进的图像+文本输入模型,采用与创建 Gemini 模型相同的研究和技术构建。
GGUF
MLX
•
gemma3
Google 最先进的图像+文本输入模型,采用与创建 Gemini 模型相同的研究和技术构建。
GGUF
MLX
•
gemma3
Google 最先进的图像+文本输入模型,采用与创建 Gemini 模型相同的研究和技术构建。
GGUF
MLX
•
gemma3
Gemma 3 的小型纯文本变体:Google 最新开源模型家族。
GGUF
MLX
•
qwen2
来自 Qwen 家族的推理模型,在基准测试中可与 DeepSeek R1 媲美。
GGUF
•
granite
IBM 开发的小型且强大的 LLM。
GGUF
•
qwen2vl
来自 Qwen2.5 家族的 7B 视觉语言模型 (VLM)。
GGUF
•
phi
Phi 模型系列的最新版本:适用于上下文长度高达 16K token 的聊天。
GGUF
•
granite
来自 IBM 的密集型 LLM,支持高达 128K 的上下文长度,在 12T token 上进行训练。适用于遵循通用指令,并可用于构建 AI 助手。
GGUF
•
llama
Meta 最新的 Llama 70B 模型,性能与 Llama 3.2 405B 相当。
GGUF
MLX
•
qwen2
Qwen 2.5 代码专用模型的 14B 版本,用于代码生成、代码推理和代码修复。
GGUF
MLX
•
qwen2
Qwen 2.5 代码专用模型的 32B 版本,用于代码生成、代码推理和代码修复。
GGUF
•
mistral
Mistral AI 的一个略大的 12B 参数模型,NeMo 提供 128k token 的长上下文长度、先进的世界知识和面向开发者的函数调用。
GGUF
•
mistral
Mistral AI 流行 7B 模型的科学专业微调版,Mathstral 在 STEM 聊天和任务中表现出色。
GGUF
•
gemma2
Gemma 2 模型家族的中型选项。由 Google 构建,采用与创建 Gemini 模型相同的研究和技术。
GGUF
•
gemma2
Gemma 2 模型家族的大型选项。由 Google 构建,采用与创建 Gemini 模型相同的研究和技术。
GGUF
•
mistral
Mistral AI 最新的编码模型,Codestral 可以轻松处理超过 80 种编程语言的指令和代码补全。
GGUF
•
mistral
最受欢迎的开源 LLM 之一,Mistral 的 7B Instruct 模型在速度、大小和性能之间取得了平衡,使其成为一个出色的通用日常驱动模型。