2025年3月24日深夜,当程序员们还在为周报焦头烂额时,DeepSeek突然甩出 V3-0324版本 ——一个参数高达6850亿的混合专家(MoE)模型,号称“ 编程能力直逼Claude 3.7 Sonnet ”。更让开发者沸腾的是,新版模型不仅保持 MIT开源协议 的商业友好性,还能在16GB显存的普通显卡上流畅运行。