2.7K 下载量
Mistral AI 推出的一款稍大一点的 120 亿参数模型,NeMo 提供 128k 词元的长上下文长度、先进的世界知识和面向开发者的函数调用功能。
上次更新时间 20 天前
Mistral Nemo 已训练支持高达 128k 的上下文,但也支持更长的上下文,但质量可能会有所降低。
该模型在一系列基准测试中表现出色,包括多语言测试。
欲了解更多详情,请查看此博客文章:https://mistral.org.cn/news/mistral-nemo/
此模型使用的底层模型文件
当您下载此模型时,LM Studio 会选择最适合您机器的来源(您可以覆盖此设置)
此模型附带的自定义配置选项