Liquid AI 旨在本地使用的混合架构模型

58.1K 下载量

34 星标

功能

最低系统内存

700MB

标签

1.2B
lfm2

最后更新

7月16日更新作者:
lmmy 的个人资料图片
lmmy

README

Liquid LFM2 1.2B

Liquid LFM2 模型是专为本地使用而设计的极速模型。与类似大小的模型相比,该模型在数学、指令遵循和多语言理解方面表现出色。

LFM2 采用混合架构,可在 CPU 和 GPU 上高效运行。

支持 32k 的上下文长度。

参数

此模型附带的自定义配置选项

最小 P 采样
0.15
重复惩罚
1.05
温度
0.3

来源

此模型使用的底层模型文件