登录或注册
主页
登录
模型目录
工作用途
文档
博客
下载
招聘
隐私政策
使用条款
39
65.3K 下载量
来自阿里巴巴Qwen的强大30B MoE编码模型,与其更大的480B对应模型并驾齐驱
针对工具使用进行训练
具有原生256K上下文长度支持的专业编码模型
MoE模型,总参数30.5B,其中3.3B为激活权重,128个专家中8个处于激活状态
擅长代理式编码、浏览器自动化和仓库级代码理解
支持Qwen Code和CLINE等平台的高级工具调用能力
针对编码任务进行了优化,在代理式工作流中性能显著提升
注意:此模型不支持思考模式,不会生成<think></think>块
<think></think>
此模型使用的底层模型文件
基于
GGUF
MLX
当您下载此模型时,LM Studio 会选择最适合您机器的来源(您可以覆盖此设置)
此模型附带的自定义配置选项