摩尔线程表示,在Deepseek-V3-0324模型上的光速适配,再次有力验证了国产全功能 GPU 在推动大模型产业化落地方面的巨大潜力。 据了解,DeepSeek-V3-0324模型参数从初代V3的6710亿小幅增至6850亿,依然采用混合专家 (MoE)架构,每个token激活约370亿参数,在推理、编程、数学、中文处理等多个领域达到行业领先水平。