来源:@第一财经日报《快三彩票》微博
【#DeepSeek正打破算力为王行业规则#】#AI算力股下挫# 中国AI大模型DeepSeek成功出圈让行业产生了对于大规模AI算力投资逻辑的怀疑。
作为目前全球AI大模型的领头羊OpenAI提出Scaling Law,即计算规模越大,训练数据量越多,模型越智能。Scaling Law则成为了全球AI大模型厂商所信奉的圭臬。这促使英伟达等算力不断研发拥有更加强大算力的产品,微软等云厂商不断加大对AI算力的资本投入。
近期,微软CEO萨蒂亚·纳德拉(Satya Nadella)表示,微软将在2025年投入800亿美元建设AI智算中心,以支持AI大模型的开发和相关服务。现任美国总统特朗普也公布了“星际之门”计划,旨在未来4年内投入5000亿美元,在美国建设AI基础设施。
然而,近期中国AI大模型DeepSeek却让行业看到了不同的发展路径。DeepSeek是国内大模型公司深度求索开发,深度求索的母公司是一家名为量化幻方的量化金融公司,在2024年12月推出的DeepSeek-V3,并于近期公布了DeepSeek-R1。
据了解,DeepSeek-V3完整训练只需2.788M H800 GPU小时,其训练成本仅为557万美元,却获得了媲美OpenAI的最先进模型GPT-4o的性能。当时著名人工智能科学家卡帕西(Andrej Karpathy)就发文表示,这个模型是在一个非常有限的预算下训练的(2048个GPU运行2个月,花费600万美元)。 作为参考,这种级别的能力通常需要接近16000个GPU的集群,而今天正在启动的集群则更接近100000个GPU。例如,Llama 3 405B使用了3080万GPU小时,而DeepSeek-V3看起来仅使用了280万GPU小时。
此外,DeepSeek-R1的训练成本还未公布。不过,从API定价可看出,定价是GPT o1的三十分之一。按照每输出一百万Token的价格来看,DeepSeek-R1为2.19美元,而GPT-o1为60美元。可以说,DeepSeek使用Open AI的一小部分的训练成本,却达到了和Open类似的性能。据了解,R1在数学、编程等测试中的成绩和o1相当。
这也引发了一种怀疑,要实现更好性能的AI大模型是否需要堆算力,堆投资才能达到?通过软件架构及算法的革新,可能也是一条通往更高性能AI大模型的思路。
对于DeepSeek的火爆是否意味着利空AI算力,韦豪创芯合伙人王智告诉第一财经记者:“短期内,在交易情绪的影响下,这起事件会利空AI算力。长期来看,AI算力仍然必不可少,AI大模型的演进,需要更多新的架构和算法,才能实现长足进步,这些需要AI算力的足够支持。”他补充道:“这些算法和架构还不得而知,但是必然会出现。”
责任编辑:张恒星