阿里又开源媲美gpt4.1的轻量级3b代码大模型Qwen3-Coder-Flash
2025 年 8 月 1 日凌晨,阿里巴巴通义千问团队正式开源 Qwen3-Coder-Flash(Qwen3-Coder-30B-A3B-Instruct)。
这款仅激活 3 B 参数的轻量级 MoE 模型,以 30 B 总参数规模实现了“闪电级”推理与超长上下文理解,被开发者称为“甜品级”编程神器。
性能对标旗舰
? 在 Agentic Coding(代理式编程)、Agentic Browser-Use(浏览器自动化)、Tool Use(函数调用)三大核心任务上,Flash 版本一举超越所有开源竞品,逼近 GPT-4.1 与 Claude Sonnet-4,SWE-Bench 得分 71.2,LiveCodeBench 达 74.1。
? 原生 256 K token 上下文,通过 YaRN 技术平滑扩展至 1 M token,可一次性“读完”整个代码库,彻底解决跨文件依赖断链问题。
极速本地部署
? 量化后仅需 6–8 GB 显存 即可在笔记本或树莓派上跑出 30+ FPS,M4 Max 实测每秒生成 4467 tokens。
? 提供 GGUF、MLX、ONNX 多格式,一行命令即可嵌入 VS Code、Cursor、CL...
点击查看剩余70%
网友评论