4.7K 下载量
Qwen3-235B-A22B 的更新版本,在指令遵循、逻辑推理、文本理解、数学、科学、编码和工具使用等通用能力方面有显著提升。
针对工具使用进行训练
Qwen3-235B-A22B 的更新版本,在指令遵循、逻辑推理、文本理解、数学、科学、编码和工具使用等通用能力方面有显著提升。
此MoE模型使用128个总专家中的22B激活参数,任何时候都有8个处于活动状态。与原始的Qwen3-235B-A22B相比,它在多语言长尾知识覆盖方面取得了显著进展,并在主观和开放式任务中与用户偏好保持了显著更好的一致性。
原生支持高达 262,144 个令牌的上下文长度,并增强了 256k 长上下文理解能力。
先进的代理功能,支持100多种语言和方言。
注意:此模型仅支持非思考模式,不在输出中生成 <think></think>
块。
此模型使用的底层模型文件
当您下载此模型时,LM Studio 会选择最适合您机器的来源(您可以覆盖此设置)
此模型附带的自定义配置选项