#MoE架构
共 2 篇文章
开源模型MoE架构
阿里开源Qwen3.6-35B-A3B:30亿参数真能打过270亿稠密模型?编程能力实测
阿里新开源的Qwen3.6-35B-A3B用MoE架构实现「总参350亿、只激活30亿就能跑」的低成本方案,编程基准测试超过270亿参数的Qwen3.5-27B,还支持多模态视觉理解。适合需要AI编程能力但算力有限的个人开发者或一人公司关注。
1480 阅读2026-04-17
DeepSeek V4开源模型
DeepSeek V4什么时候发布?四大升级抢先看:万亿参数、百万上下文、国产芯片适配
DeepSeek V4预计4月下旬发布,核心升级包括万亿参数MoE架构(推理仅激活370亿参数)、百万Token上下文窗口、首次深度适配华为昇腾等国产AI芯片,并采用Apache 2.0开源协议。对一人公司而言,V4的推理成本将大幅下降,本地私有化部署也成为可能,值得持续关注API定价和开源版本发布时间。
1273 阅读2026-04-10