亚洲国产日韩不卡综合,内射在线Chinese,日韩综合一卡二卡三卡死四卡 ,国产精品久久午夜夜伦鲁鲁

给大家科普一下口袋牛店官方

发布时间:2025-01-28 06:15

  英伟达称DeepSeek R1是“一项出色的人工智能进步”,尽管这家人工初创公司的崛起导致英伟达股价周一暴跌17%。《口袋牛店官方》

  英伟达发言人周一表示:“DeepSeek是一项出色的人工智能进步,也是测试时间缩放的完美例子。”“DeepSeek的工作说明了如何使用该技术创建新模型,利用广泛可用的模型和完全符合出口管制的计算。”

  在此之前,DeepSeek上周发布了R1,这是一个开源推理模型,据报道,它的表现超过了OpenAI等美国公司的最佳模型。R1自我报告的培训成本不到600万美元,与硅谷公司花费数十亿美元建立人工智能模型的成本相比,这只是一个零头。

  英伟达的声明表明,它认为DeepSeek的突破将为这家美国芯片制造商的图形处理单元(GPU)创造更多的工作。

  “推理需要大量的英伟达GPU和高性能网络,”发言人补充说。“我们现在有三个缩放定律:训练前定律和训练后定律,它们会继续,还有新的测试时间缩放定律。”

  本月早些时候,微软表示,仅2025年就将在人工智能基础设施上投入800亿美元,而Meta首席执行官马克·扎克伯格上周表示,这家社交媒体公司计划在2025年投资600亿至650亿美元的资本支出,作为其人工智能战略的一部分。

  英伟达的评论也反映了英伟达首席执行官黄仁勋、OpenAI首席执行官萨姆·奥特曼和微软首席执行官萨蒂亚·纳德拉最近几个月讨论的一个新主题。

  人工智能的繁荣和对英伟达gpu的需求在很大程度上是由“缩放定律”驱动的,这是OpenAI研究人员在2020年提出的人工智能开发概念。这一概念表明,通过大幅增加构建新模型所需的计算量和数据量,可以开发出更好的人工智能系统,而这需要越来越多的芯片。

  自去年11月以来,Huang和Altman一直在关注缩放定律的一个新问题,Huang称之为“测试时间缩放”。

  这一概念认为,如果一个训练有素的人工智能模型在进行预测或生成文本或图像以进行“推理”时,花更多的时间使用额外的计算机能力,那么它将比运行更少的时间提供更好的答案。

  测试时间缩放定律的形式被用于OpenAI的一些模型,如o1和DeepSeek的突破性R1模型。

责任编辑:李桐

  

返回顶部