亚洲国产日韩不卡综合,内射在线Chinese,日韩综合一卡二卡三卡死四卡 ,国产精品久久午夜夜伦鲁鲁

给大家科普一下722彩票是平台吗

发布时间:2025-02-24 16:22

  文 丨 新浪科技 周文猛

  2月24日,在上周DeepSeek宣布本周将是开源周(OpenSourceWeek),并将连续开源五个软件库后。今日上午9:30时许,DeepSeek宣布开源了本次开源周首款代码库——针对Hopper GPU进行优化的高效型MLA解码核——FlashMLA。

  新浪科技注意到,在GitHub上,目前该项目开源6小时后便已收获了超过5000Star收藏,并且拥有188个Fork(副本创建)。在听到DeepSeek开源FlashMLA并迎来的快速的Star收藏和Fork数据增长后,某港股上市公司CTO在与新浪科技沟通中直呼:“太强了”。

  另有专注于AI硬件研究并投资的投资人,在查看FlashMLA后告诉新浪科技,对于国产GPU而言,此次开源算是重大利好。“此前的国产GPU卡,很弱。那现在可以通过FlashMLA提供的优化思路和方法论,尝试让国产卡大幅提升性能,即使架构不同,后面国产卡的推理性能提升将是顺理成章的事儿”。

  据DeepSeek官方介绍,FlashMLA基于Hopper GPUs的有效MLA解码内核,可针对可变长度序列进行优化。

  在DeepSeek整个技术路线中,MLA(多头潜在注意力机制)是公司已经发布的V2、V3两款模型中,最为核心的技术之一。被用于解决计算效率和内存占用上的性能瓶颈,能够显著提升模型训练和推理效率,同时保持甚至增强模型性能。

  此前,中国工程院院士、清华大学计算机系教授郑纬民在与新浪科技沟通中曾提及:“DeepSeek自研的MLA架构为其自身的模型训练成本下降,起到了关键作用。”他指出,“MLA通过改造注意力算子压缩了KV Cache大小,实现了在同样容量下可以存储更多的KV Cache,该架构和DeepSeek-V3模型中FFN 层的改造相配合,实现了一个非常大的稀疏MoE 层,成为DeepSeek训练成本低最关键的原因。”

  此次DeepSeek直接开放MLA解码核——FlashMLA,意味着DeepSeek将最为核心的MLA底层代码直接免费开放,这让广大开发群体可以直接复用FlashMLA代码库实现用更少的GPU服务器完成同样的任务,直接降低推理成本,这对于更多希望基于DeepSeek开源能力进行底层优化和AI应用开发群体而言,无疑是一大福利。

  有意思的是,DeepSeek此次开放的MLA解码核,主要是针对Hopper GPU进行优化用途的。通常而言,Hopper GPU是指基于英伟达Hopper架构研发的H系列GPU产品。目前,英伟达该系列芯片已经发布H100、H800和H20等多款芯片。

  据DeepSeek方面介绍,在基准测试性能表现上,FlashMLA在英伟达H800 SXM5 GPU上可实现3000 GB/s 的内存速度以及580TFLOPS的计算上限。

  公开资料显示,根据美国出口管制规定,H800的带宽上限被设定为600 GB/s,相比一些旗舰产品有所降低。这意味着,使用FlashMLA优化后,H800的内存带宽利用率有望进一步提高甚至突破H800 GPU理论上限,在内存访问上达到极致,能让开发群体充分“压榨”英伟达H系列芯片能力,以更少的芯片实现更强的模型性能,最大化GPU价值。

  有专注于AI硬件研究并投资的投资人在查看FlashMLA后表示,“FlashMLA是能让LLM在H800跑得更快、更高效的优化方案,尤其适用于高性能AI任务,他的核心是加速大语言模型的解码过程,提高模型的响应速度和吞吐量,这对于实时生成任务(如聊chatbot等)非常重要,对于大模型的能力和使用体验是巨大的促进,速度会明显提升。”

  虽然FlashMLA是一个针对Hopper GPU的优化代码库,但对于国产GPU而言,此次开源也有利好。上述投资人在查看FlashMLA后表示,对于国产GPU而言,此次开源算是重大利好。“此前的国产GPU卡,很弱。那现在可以通过FlashMLA提供的优化思路和方法论,尝试让国产卡大幅提升性能,即使架构不同,后面国产卡的推理性能提升将是顺理成章的事儿”。

责任编辑:《722彩票是平台吗》刘万里 SF014

  袋子的开口处,有锯齿状,方便拆开。722彩票是平台吗

⚡青岛市人民政府关于张咏雁等工作人员任免职务的通知

  本报记者 有森也实 【编辑:斯行健 】

  

返回顶部