近日,中国工程院院士 / 清华大学教授 / 博士生导师郑纬民确认出席 QCon 北京大会发表题为《 关于人工智能大模型的几点思考 》的主题演讲,并将分享 Kimi 幕后的大模型推理架构 Mooncake。
在人工智能技术迅猛发展的今天,如何提升大模型的推理能力已成为行业面临的重要挑战。2025年QCon北京大会上,中国工程院院士郑纬民将围绕人工智能大模型的前沿发展,发表主题演讲,并分享其背后的创新推理架构——Mooncake。该架构不仅凭借其独特的设计理念荣获第23届USENIX文件与存储技术会议的最佳论文奖,更对当前多模态人工智能发展起到了关键性的推动作用。
1、2024年9月23日互动易:公司2024年半年度算力网络业务收入2.25亿,同比增长32.82%。公司持续加大对算力业务的投入,打造国内领先的“算力集群技术服务专家”能力和国内规模领先的智算云服务。
在人工智能飞速发展的当下,算力资源成为推动各行各业数字化转型的关键动力。记者3月24日从重庆移动获悉,该公司依托DeepSeek大模型技术和本地化的算力资源池,已完成了DeepSeek全参数版本预置部署,本地算力服务得到全面升级。得益于此,重庆算力资 ...
在人工智能飞速发展的当下,算力资源成为推动各行各业数字化转型的关键动力。依托DeepSeek大模型技术和本地化的算力资源池,重庆移动完成了 DeepSeek全参数版本预置部署,正以全新姿态迎接智算时代。 双中心协同布局 算力性能卓越 ...
存储阵列行业正在发生巨大转变,转向支持AI训练和推理的极度规模化、并行化和多协议数据传输。传统的双控制器阵列和横向扩展文件集群正逐渐被淘汰。新一代存储系统具有超大容量、低延迟、高性能和多协议支持等特点,能够满足AI对数据的海量需求。VAST Data ...
【文/观察者网 熊超然】上个月,全球计算机存储领域的顶级学术会议——第23届USENIX文件与存储技术会议(USENIX Conference on File and Storage ...
其定位为“生产级大模型推理引擎”,提供如下特性: 多元算力适配:不仅支持 NVIDIA 最新旗舰到旧款的多系列产品 ... 官方表示,当前开源的赤兔引擎在部署 DeepSeek-R1-671B 满血版时,在 A800 集群的测试中,相比部分国外开源框架,实现了 GPU 使用量减少 50% ...
例如,A100/A800 机型的东西向的网卡带宽达 100 Gbps 或者 200 Gbps ... 那么同一主机上的 GPU 可以通过 PCIe 进行通信。 2.1.3.2.专有总线 - NVIDIA NVLink PCIe 总线迭代速度赶不上 GPU 对互联带宽的需求,当前可用的PCIe 5.0 总线的双向带宽只有 128GB/s,无法满足需求,于是各个 GPU ...
3月中旬到货的H20 141G整机交期短,欢迎实单来聊价格。DeepSeekAI满血版大模型性价比高,大量NVIDIA H20sxm141GB版本供应。 春节后,北京的王师傅在微信朋友圈积极发布与AI芯片相关的信息,尤其是关于H20芯片的内容。他表示,得益于DeepSeek的技术路线,现在可以低 ...