亚洲国产日韩不卡综合,内射在线Chinese,日韩综合一卡二卡三卡死四卡 ,国产精品久久午夜夜伦鲁鲁

给大家科普一下kok游戏平台下载

发布时间:2025-01-07 20:40

  来源:华尔街见闻

  北京时间1月7日,英伟达创始人兼CEO黄仁勋穿着6.5万的Tom Ford新夹克亮相拉斯维加斯CES展会,发表开幕主题演讲,并推出一系列新产品和技术。

  以下为发布会主要《kok游戏平台下载》亮点:

推出新一代基于Blackwell架构的GPU RTX 5090,高端型号RTX 5090拥有920亿个晶体管,可提供3400 TOPS算力,具备4000 AI TOPS(每秒万亿次操作)的性能,售价1999美元。

RTX 5070、RTX 5070 Ti、RTX 5080和RTX 5090的售价分别为:549美元(约4023元)、749美元(约5489元)、999美元(约7321元)和1999美元(约14651元)。其中,RTX 5070性能和此前售价1599美元的RTX 4090相同的性能,相当于降价1/3。

推出Blackwell架构最新的关键互联技术NVLink72。晶体管数量达到130万亿,72个Blackwell GPU具备1.4 ExaFLOPS TE FP4计算能力,拥有2592个Grace CPU核心。

“Scaling law仍在继续”:第一个scaling law是预训练;第二个scaling law 是后训练;第三个scaling law是测试时计算。

展示具有“Teat-Time Scaling”功能的Agentic AI,支持计算器、网络搜索、语义搜索、SQL搜索等工具,甚至可以生成播客。

推出Nemotron模型,包括Llama Nemotron大型语言模型和Llama Nemotron大型语言模型,分为Nano、Super和Ultra三档。

AI智能体可能是下一个机器人产业,可能是价值数万亿美元机会。

推出物理AI世界基础模型Cosmos,开源可商用,该模型可以将图像和文本转换为机器人的可操作任务,无缝集成视觉和语言理解来执行复杂的动作。

宣布生成式 AI 模型和蓝图,将NVIDIA Omniverse集成进一步扩展到机器人、自动驾驶汽车和视觉 AI 等物理 AI应用中。

物理AI将彻底改变价值50万亿美元的制造业和物流行业,所有移动的东西——从汽车、卡车到工厂和仓库——都将由机器人和AI实现。

发布全球最小的个人AI超级计算机——Project Digits。该超算搭载全新Grace Blackwell超级芯片,支持个人直接运行2000亿参数的大模型,两台Project Digits可以跑通4050亿参数的大模型。

  以下为黄仁勋演讲全文:

  一切都始于1993年

  欢迎来到CES!大家来到拉斯维加斯开心吗?你们喜欢我的夹克吗?(编者注:8990刀!)

  我想我说话的风格应该和Gary Shappero(CTA首席执行官、CES总裁)区别开,毕竟我是在拉斯维加斯。如果这样行不通,如果你们都反对,那么……你们就尽量习惯吧。再过一个小时左右,你们会觉得这样还不错。

  欢迎来到英伟达——实际上,你们现在就在英伟达的数字孪生兄弟里——女士们先生们,欢迎来到英伟达。你在我们的数字孪生里面,这里的一切都是由AI产生的。

  这是一段非凡的旅程、非凡的一年,这一切都始于1993年。

  有了NV1(英伟达首款GPU)时,我们希望制造的电脑能做到普通电脑无法做到的事情。NV1成功让在电脑上玩游戏机成为可能,我们的编程架构被称为UDA(Unified Device Architecture),不久之后才被命名为“UDA Unified Device Architecture”。

  我在UDA上开发的第一个应用程序是《VR快打》(Virtua Fighter )。六年后,我们在1999年发明了可编程GPU,从此,GPU这种不可思议的处理器取得了长达20多年的惊人进步。它使现代计算机图形成为可能。

  三十年后的今天,《VR快打》已被完全影视化了。这也是我们即将推出的新的《VR快打》项目,我等不及要告诉你们,它超惊艳的。

  又是六年后,我们发明了Kuda。通过它,我们能够解释或表达GPU的可编程性,也让我从丰富的算法集中受益。起初,这很难解释,而且花了好几年时间——事实上大约花了六年时间。

  不知怎的,六年后,也就是2012年,亚历克斯-基尔舍夫斯基(Alex Kirshevsky)、埃利亚斯-苏斯克(Elias Susker)和杰夫-辛顿(Jeff Hinton)发现了 CUDA,并用它来处理亚历克斯网络(Alex Net),这一切在现在看来都成为了历史。

  如今,AI开始以令人难以置信的速度前进。我们从感知AI开始,到可以理解图像、单词和声音,生成式AI,再到可以生成图像、文本和声音,到现在可以感知、推理、计划和行动的AI代理(AI agent),再接着是下一阶段,物理人工智能 (physical AI),今晚我们将讨论其中的一部分。

  在2018年,发生了一件非常神奇的事情。谷歌发布基于Transformer(变换器)的双向编码器表示技术(BERT) ,人工智能的世界真正起飞了。

  正如你们所知,变换器完全改变了人工智能的格局。实际上,它彻底改变了计算的格局。我们正确地认识到,人工智能不仅仅是一个新的应用程序和商业机会,更重要的是,机器学习 (machine learning) 由变换器驱动,将从根本上改变计算的工作方式。

  今天,计算在每一个层面上都发生了革命,从手动编写在CPU上运行的指令,到创造人类使用的软件工具。我们现在有机器学习,它创建和优化神经网络 (Neural networks),在GPU上处理并创造人工智能,技术栈的每一个层面都发生了彻底的变化,短短12年内发生了令人难以置信的转变。

  现在,我们可以理解几乎任何模态的信息。当然,你们已经看到了类似文本、图像、声音的东西,但我们不仅可以理解这些,还可以理解氨基酸、物理学等。我们不仅理解它们,还可以翻译并生成它们。应用几乎是无穷无尽的。

  实际上,针对几乎所有你看到的人工智能应用,如果你问这三个基本问题:输入的形式是什么?我从什么信息形式中学习?它翻译成什么信息形式?它生成了什么信息形式?几乎每一个应用都能给出答案。

  因此,当你看到一个个被AI驱动的应用时,其核心都是这一个基本概念。

  机器学习改变了每个应用的构建方式,改变了计算的方式,以及超越的可能性。

  现在,所有与AI有关的事物,都由GeForce(英伟达开发的个人电脑的图形处理器品牌)架构而来,GeForce使人工智能能够走向大众。现在,AI正回到GeForce的怀抱,有许多事情没有AI就没法做到,让我给你们展示一下。

  (演示视频)

  那就是实时计算机图形 (real time computer graphics),没有计算机图形研究人员或科学家会告诉你,现在能够对每一个像素进行光线追踪 (ray tracing)。光线追踪是一种模拟光的技术,你所看到的几何形状的数量级是绝对疯狂的,如果没有AI,这几乎不可能。

  我们做了两件基本的事情。当然,我们使用了可编程着色 (programmable shading) 和光线追踪加速 (ray traced acceleration) 来生成令人难以置信的美丽像素。

  但随后我们让AI根据这些像素进行条件和控制,以生成大量其他像素,因为它知道颜色应该是什么,并已经在英伟达的超级计算机上训练过。因此,运行在GPU上的神经网络能够推断和预测我们未渲染的像素。

  我们不仅能做到这一点,这被称为DLSS (深度学习超级采样)。最新一代的DLSS还能够超越帧,可以预测未来,每计算一帧生成三帧。

  举例来说,如果你们现在看到的是四帧的画面,是由我们渲染的一帧和额外生成的三帧组成的。

  如果我设置四帧在全高清4K下,那就是大约3300万像素,在这3300万像素中,我们用可编程着色器和我们的光线追踪引擎计算了200万像素,并让人工智能预测所有其他的3300万像素——这真是一个绝对的奇迹。

  因此,我们能够以极高的性能进行渲染,因为AI减少了大量计算。当然,训练它需要巨大的算力,但一旦训练完成,生成过程是极其高效的。

  这就是AI的一种令人难以置信的能力,这就是为什么有这么多令人惊叹的事情发生。我们利用GeForce来实现AI,而现在AI正在革新GeForce。

  Blackwell家族最新GPU!RTX 50系列芯片震撼来袭

  各位,今天在这里,我们要宣布下一代RTX Blackwell家族。让我们来看看。

  (演示视频)

  看,这是我们全新的基于Blackwell架构的GeForce RTX 50系列芯片。

  这个GPU真的是“一头猛兽”,它拥有920亿个晶体管,具备4000 TOPS(每秒万亿次操作)的AI性能,是上一代Ada架构的三倍。

  要生成我刚刚展示的那些像素,我们还需要这些:

  这一代的一个惊人之处在于,可编程着色器现在也能够处理神经网络。因此,着色器能够承载这些神经网络,结果是我们发明了神经纹理压缩 (neural texture compression) 和神经材质着色 (neural material shading)。

  通过以上种种,你会得到这些令人惊叹的美丽图像,这些图像只有通过使用AI学习纹理、学习压缩算法才能实现,从而获得非凡的结果。

  这就是全新的 RTX Blackwell 50 系列,连机械设计也堪称奇迹。看,它有两个风扇,整个显卡简直就是一个巨大的风扇。那么问题来了,显卡真的有这么大吗?实际上,常规电压设计是最先进的,这款GPU拥有难以置信的设计,工程团队做得很棒,谢谢。

  接下来是速度和费用。相比之下如何呢?这是RTX 4090。我知道你们很多人都有这款显卡。它的价格是1599美元,绝对是你可以做出的最佳投资之一。只需花1599美元,就能把它带回你那价值10000美元的“PC娱乐中心”。

  没错吧?别告诉我我说的不对。这款显卡采用液冷设计,四周都有华丽的灯光。你离开时把它锁上,这就是现代家庭影院,完全合理。

  而现在,凭借Blackwell家族的RTX 5070,你只需要花549美元,就可以实现,并且可以提升你的配置和性能。

  没有人工智能,这一切都是不可能的,没有AI张量核心 (tensor cores) 的四个顶级四阶运算也不可能,没有G7内存也不可能。

  好,这是RTX 50整个家族,从RTX 5070一直到RTX 5090,后者的性能是4090的两倍。我们将从1月开始大规模生产。

  这确实令人难以置信,但我们成功地将这些GPU安装到了笔记本电脑中。

  这是一款售价12909美元的RTX 5070笔记本,它的性能相当于4090。

  你能想象出来吗?把这款令人难以置信的显卡缩小并放进去,这样做合理吗?没有什么是AI做不到的。

  原因在于,我们生成大多数像素是通过我们的测试进行的。因此,我们只追踪需要的像素,其余的像素则是通过AI生成的。结果是,能量效率简直令人难以置信。计算机图形的未来是神经渲染 (Neural rendering),即人工智能与计算机图形的结合。

  真正令人惊讶的是,我们即将在电脑里放入现在的GPU家族。RTX 5090适合放入一台薄笔记本电脑中,厚度为14.9毫米。

  所以,女士和先生们,这就是RTX Blackwell家族。

  新的Scaling law已经出现,模型可以自行训练并应用不同资源分配

  GeForce 将人工智能 (AI) 带给了世界,普及了人工智能。现在,人工智能又回过头来,彻底改变了GeForce,让我们谈谈人工智能。

  整个行业正在追赶并竞相扩展人工智能,而Scaling law是一个强大的模型,这是一个经过几代研究人员和行业观察并证明的经验法则。

  Scaling law表明,拥有的训练数据量越大,模型就越大,计算能力投入越多,模型就会变得越有效或越强大。因此,Scaling law就这样继续下去。

  令人惊讶的是,互联网每年产生的数据量约是去年的两倍。我认为在接下来的几年中,人类产生的数据量将超过自古以来所有人类产生的数据总和。

  我们仍在不断生成大量的数据,这些数据呈现出多模态特征,包括视频、图像和声音。所有这些数据都可以用于训练人工智能的基础知识。

  然而,实际上还有两种新的Scaling law已经出现,它们在某种程度上是直观的。

  第二种Scaling law是“后训练Scaling law”

  后训练Scaling law使用诸如强化学习和人类反馈等技术。基本上,人工智能根据人类的查询生成答案,然后人类给予反馈。事情比这复杂得多,但这种强化学习系统通过大量高质量的提示使人工智能不断提升技能。

  它能够针对特定领域进行微调,例如在解决数学问题和推理等方面变得更好。

  因此,这本质上就像是有一个导师或教练在你上完学后给予你反馈。你会参加考试、获得反馈、然后自我提升。我们还使用强化学习、人工智能反馈以及合成数据生成,这些技术类似于自我练习,例如你知道某个问题的答案,并不断尝试直到获得正确答案。

  因此,人工智能可以面对一个复杂且困难的问题,这个问题在功能上是可验证的,且有我们理解的答案,可能是证明一个定理,或者解决一个几何问题。这些问题促使人工智能生成答案,并通过强化学习学习如何改进自己,这被称为后训练。后训练需要大量的计算能力,但最终结果会产生令人难以置信的模型。

  第三种Scaling law与所谓的测试时间扩展有关。测试时间扩展是指当你使用人工智能时,人工智能能够应用不同的资源分配,而不是单纯改善其参数。现在它专注于决定使用多少计算能力来生成所需的答案。

  推理是一种思考方式,而长时间思考则是另一种思维方式,而不是直接推理或一次性回答。你可能会对其进行推理,可能会将问题分解为多个步骤,可能会生成多个想法并评估你的人工智能系统评价你生成的想法中哪个是最好的,也许它逐步解决问题,等等。

  因此现在,测试时间扩展已被证明非常有效。你正在目睹这一系列技术的发展,以及所有这些Scaling law的出现,因为我们看到从 ChatGPT 到 o1,再到 o3,以及现在的 Gemini Pro 所取得的令人难以置信的成就,这些系统都经历了从预训练到后训练再到测试时间扩展的旅程。

  当然,我们所需的计算能力是惊人的,实际上,我们希望社会能够扩展计算,以产生越来越多的新颖和更好的智能。智能当然是我们拥有的最有价值的资产,它可以应用于解决许多非常具有挑战性的问题。因此,Scaling law正在推动对英伟达计算的巨大需求,也推动了Blackwell这种不可思议的芯片的巨大需求

  Blackwell每瓦性能较上一代提高了四倍

  让我们来看看 Blackwell。Blackwell目前正在全面生产,它看起来令人难以置信。

  首先,每个云服务提供商现在都有系统在运行。我们这里有来自大约 15 家计算机制造商的系统,正在生产约 200 种不同的库存单位 (SKUS),200 种不同的配置。

  它们包括液体冷却、风冷、x86 架构以及英伟达Grace CPU 版本、NVLink 36 x 2、72 x 1 等多种不同类型的系统,以便我们可以满足全球几乎所有数据中心的需求。这些系统目前正在 45家工厂中生产。这告诉我们人工智能是多么普遍,整个行业是如何迅速投入到这一新的计算模型中。

  我们如此努力推动的原因是我们需要更多的计算能力,这是非常明确的。GB200 NVLink72,它重达1.5 吨,包含60万个部件。它后面有一个主干,将所有这些GPU连接在一起,有两英里的铜缆和5000根电缆。

  这个系统在全球的 45 家工厂中生产。我们建造它们,液体冷却它们,测试它们,拆解它们,将其分部分运送到数据中心,因为它重达 1.5 吨,我们在数据中心外重新组装它并安装。

  制造过程非常疯狂,但所有这一切的目标是因为Scaling law正在推动计算能力的发展,以至于到Blackwell的这种计算水平。

  Blackwell的每瓦性能比我们上一代产品的基础上提高了四倍,每美元性能提高了三倍。这基本上意味着,在一代产品中,我们将训练这些模型的成本降低了三倍,或者如果你想将模型的规模提高三倍,成本大致相同。但重要的是,这些正在生成的tokens被我们所有人使用,应用于ChatGPT 或 Gemini 以及我们的手机。

  在未来,几乎所有这些应用都会消耗这些 AI tokens,它们是由这些系统生成的。每个数据中心都受到电力的限制。

  因此,如果Blackwell的每瓦性能是我们上一代的四倍,那么可以产生的收入,即数据中心中可以产生的业务量,就增加了四倍。因此,这些 AI 工厂系统实际上今天就是工厂。

  现在,所有这一切的目标是为了创建一个巨大的芯片。我们所需的计算能力是相当惊人的,这基本上就是一个巨大的芯片。如果我们必须将其构建为一个芯片,显然这将是晶圆的大小,但这并不包括yield的影响,它可能需要三到四倍的大小。

  但我们基本上在这里有72个Blackwell GPU或144个芯片。一个芯片的AI 浮点性能达到 1.4 ExaFLOPS,世界上最大的超级计算机,速度最快的超级计算机,最近才达到了1 ExaFLOPS以上。它具有 14 TB的内存,内存带宽是每秒 1.2 PB,相当于目前发生的整个互联网流量。全球的互联网流量正在通过这些芯片处理。

  我们总共有130万亿个晶体管,2592 个 CPU 核心,还有大量的网络。因此,我希望我能做到这一点,但我觉得我不会。所以这些是 Blackwell、这些是我们的 Connect X 网络芯片、这些是 NV Link。我们试图假装 NV Link 的主干,但那是不可能的。

  这些都是HBM(高带宽内存),14TB 的 HBM 内存,这就是我们正在尝试做的。这就是 Blackwell 系统的奇迹。Blackwell芯片就在这里,是世界上最大的单芯片

  我们需要大量的计算资源,因为我们希望训练越来越大的模型。

  过去,这些推理只有一个,但在未来,AI 将会自我对话,它将会思考并进行内部处理。目前,当token以每秒 20 或 30 个的速度生成时,这已经是人类阅读的极限。然而,未来的 GPT-o1、Gemini Pro 以及新的 GPT-o1、o3 模型将会自我对话并反思。

  因此,可以想象,token的生成速率将会极高。为了确保服务质量出色、客户成本低廉,并推动 AI 的持续扩展,我们需要大幅提升token生成速率,同时降低成本。这就是我们创建 NV link 的基本目的之一。

  英伟达为帮助生态系统构建AI代理创建三样工具:Nvidia NIMS 、Nvidia NeMo、开源蓝图

  企业界正在发生的重要变革之一就是“AI代理”。

  AI代理是测试时间扩展的完美示例。它是一种AI,是一种模型系统,其中一些负责理解和与客户、用户进行互动,另一些则负责从存储中检索信息,比如语义 AI 系统。

  它可能会访问互联网或打开一个 PDF 文件,也可能会使用工具,如计算器,甚至利用生成式 AI 来生成图表等。而且它是迭代的,它会逐步分解您提出的问题,并通过不同的模型进行处理。

  为了在未来能够更好地响应客户,让AI回应。过去,提出一个问题,然后答案喷涌而出。将来,如果你提出一个问题,一大堆模型将在后台运行,因此测试时间扩展、推理所需的计算量将会激增,我们希望能得到更优质的答案。

  为了帮助行业构建AI代理,我们的市场策略并不是直接面向企业客户,而是与 IT 生态系统中的软件开发者合作,将我们的技术整合,以实现新的能力,就像我们与 CUDA 库所做的一样。正如过去的计算模型有用于计算机图形学、线性代数或流体动力学的 API,未来在这些CUDA加速库上,将会引入 AI 库。

  我们为帮助生态系统构建AI代理的三样工具:Nvidia NIMS,本质上是打包好的 AI 微服务。它将所有复杂的 CUDA 软件,CUDA DNN、Cutlass、Tensor RTLM或Triton等复杂的软件和模型本身打包、优化,放入一个容器中,您可以随意使用。

  因此,我们有用于视觉、语言理解、语音、动画和数字生物学的模型,并且即将推出一些新的、令人兴奋的物理 AI 模型。这些 AI 模型可以在每一个云平台中运行,因为 NVIDIA GPU 现在在每一个云平台、原始设备制造商(OEM)中也可用。

  因此,您可以将这些模型集成到您的软件包中,创建在 Cadence 上运行的 AI 代理ServiceNow或SAP代理,并可以将其部署给客户,在客户希望运行软件的任何地方运行。

  下一个工具是我们称之为Nvidia NeMo的系统本质上是一个数字员工入职培训与评估系统。

  未来,这些AI代理将成为与您的员工并肩工作的数字劳动力,为您完成各种任务。因此,将这些专门的代理引入公司就像您入职员工一样。我们有不同的库来帮助这些 AI 代理针对公司的特定语言进行培训,也许这些词汇是公司独特的,商业流程和工作方式各不相同。

  因此,您需要给他们提供示例,以说明工作成果的标准,他们会尝试生成符合标准的结果,而您则给予反馈并进行评估,如此反复。

  同时,您会设定一些界限,明确哪些事情是他们不允许做的,哪些话是他们不能说的。我们甚至会赋予他们访问某些信息的权限。因此,整个数字员工管道被称为NeMo。

  在未来,每家公司的IT部门都将转变为AI代理的人力资源管理部门。今天,他们管理并维护来自IT行业的一系列软件,而未来,他们将负责维护、培养、引导和改进一整套数字代理,并将其提供给公司使用。您的IT部门将逐渐演变为AI代理的人力资源管理部门。

  此外,我们还提供了一大堆蓝图供我们的生态系统利用,所有这些都是完全开源的,您可以自由修改这些蓝图,我们拥有各种不同类型代理的蓝图。

  今天,我们还宣布了一项非常酷且聪明的举措:推出基于LLAMA的模型家族,即NVIDIA LLAMA Nemotron语言基础模型,其中LLAMA 3.1是一个显著的成就。从Meta下载LLAMA 3.1的次数达到65万次,它已经被衍生并转化为约6万个不同模型,几乎是每个行业的企业开始关注人工智能的主要原因。

  我们意识到,LLAMA模型可以更好地微调以适应企业的需求,因此我们利用我们的专业知识和能力对其进行了微调,形成了LLAMA Nemotron开源模型套件。这些模型中有一些非常小的模型,响应时间极快,很小巧,我们称之为超级LLAMA Nemutron超级模型,它们基本上是主流模型。

  超大模型可以作为其他模型的教师模型,可以是奖励模型评估器、判断器,用于评估其他模型的答案质量,提供反馈。它可以以多种方式进行蒸馏,既是教师模型,也是知识蒸馏模型,功能强大且可用性广泛,这些模型现已在线开放。它们在聊天、指令和检索排行榜上名列前茅,具备AI代理所需的多种功能。

  我们还在与生态系统合作,所有NVIDIA的AI技术已与IT产业深度集成。我们拥有极好的合作伙伴,包括ServiceNow、SAP、西门子等,正在为工业AI做出卓越贡献。Cadence和Synopsys也在进行卓越的工作。我为与Perplexity的合作感到自豪,他们彻底改变了搜索体验,取得了非常棒的成果。

  Codium将成为全球每位软件工程师的下一个巨大AI应用,软件编码是下一个重大服务。全球有3000万软件工程师,每个人都将拥有一个软件助手来帮助他们编码,否则,他们的工作效率将大大降低,编写出的代码质量也会下降。

  因此,涉及到3000万这一庞大数字,而全球知识工作者总数达10亿。显然,AI代理很可能是下一个机器人产业,未来有望成为数万亿的商业机会。

  接下来,我将展示一些我们与合作伙伴共同创建的蓝图以及我们的工作成果。这些AI代理是新的数字劳动力,正在为我们工作并与我们协作。AI是一个模型系统,能够围绕特定任务进行推理、分解任务并检索数据或使用工具生成高质量的响应。

  (演示视频)

  将AI转变为一个全方位的AI助手

  好了,咱们接着聊聊 AI。

  AI 诞生于云端,云端的 AI 体验十分美妙,在手机上使用 AI 也乐趣十足。很快,我们就会拥有如影随形、时刻相伴的连续 AI。想象一下,当你戴上 Meta 眼镜,只需轻轻指向或看向某个东西,就能随口询问相关信息,是不是超酷?

  云端的AI体验固然很好,但我们的野心不止于此,还想让AI无处不在。前面已经提过,英伟达AI能轻松部署到任意云端,也能巧妙装进公司内部系统,而我们心底最渴望的,是让它稳稳装进个人电脑。

  大家都知道,Windows 95曾掀起计算机行业的革命浪潮,带来一系列新颖的多媒体服务,永远改写了应用开发的方式。但Windows 95的计算模式对 AI 来说,还存在不少局限性,不太完美。

  我们满心期待,未来个人电脑里的 AI 能成为大家的得力助手,除了现有的 3D、声音、视频 API,还会新增生成式 API,用于生成惊艳的 3D 内容、灵动的语言、悦耳的声音等等。我们得匠心打造一个全新系统,既充分利用云端的巨额前期投资,又能让这一切美好设想成为现实。

  全世界不可能再创造出另一种 AI 编程方式,所以要是能把 Windows PC 变成世界级 AI PC,那就太棒了。而答案就是 Windows WSL 2。

  Windows WSL 2 本质上是一个系统里巧妙嵌套了两个操作系统,它专为开发者量身定制,能让开发者直接畅快访问硬件。

  我们的目标是把 Windows WSL 2 Windows PC 打造成一个一流的平台,我们将长期支持和维护它。

  接下来,让我为大家展示一个我们刚刚开发的蓝图示例:

  (演示视频)

  英伟达 AI 即将装进全球数亿台 Windows 电脑,我们已经和全球顶尖 PC OEM 厂商紧密携手,让这些电脑都为 AI 时代做好万全准备。AI PC 很快就要走进千家万户,成为生活好帮手。

  英伟达Cosmos,全球首个专为理解物理世界的基础模型,

  接着,咱们把目光聚焦到物理 AI 这个前沿领域。

  提到 Linux,就顺道聊聊物理 AI。想象一下,大语言模型接收左边的上下文、提示信息,然后逐个生成 token,最终输出结果。中间的这个模型极为庞大,拥有几十亿个参数,上下文长度也相当可观,因为使用者可能会一股脑加载好几个 PDF 文件,这些文件会被巧妙转化成 token。

  Transformer的注意力机制让每个token与其他 token 建立关联,如果有几十万个token,计算量就会呈二次方增长。

  模型处理所有参数、输入序列,经过 Transformer每一层,生成一个 token,这就是为什么我们需要Blackwell这样的算力,然后再生成下一个token。这就是Transformer模型如此高效且耗费计算资源的原因。

  要是把PDF换成周围环境,把提问换成请求,比如 “去那边把那个盒子拿过来”,输出不再是 token,而是动作指令,这对未来机器人技术来说非常合理,相关技术也近在咫尺。但我们得创建一个有效的世界模型,区别于GPT这类语言模型。

  这个世界模型要理解现实世界的规则,比如重力、摩擦力、惯性这些物理动力学,还要理解几何与空间关系、因果关系。东西掉地上会怎样,戳一下它会倒,得明白物体恒存性(Object permanence),球滚过厨房台面,从另一边掉下去,它不会消失在另一个量子宇宙,它还在那儿。

  当下大多数模型在理解这类直观知识上还很困难,所以我们要打造一个世界基础模型。

  今天,我们要发布一件大事 —— 英伟达 Cosmos,全球首个世界基础模型,专为理解物理世界打造。眼见为实,来看一下。

  (展示视频)

  英伟达 Cosmos,全球首个世界基础模型,在2000万小时的视频数据上训练而成,这些视频聚焦动态物理事物,像自然主题、人类行走、手部动作、操控物体,还有快速的相机运动,目的是教会 AI 理解物理世界,而非生成创意内容。有了物理 AI,就能做很多下游应用。

  我们能用它做合成数据生成来训练模型,提炼模型,初步打造机器人模型,生成多个基于物理、符合物理逻辑的未来场景,就像奇异博士操控时间一样,因为这个模型懂物理世界。

  大家也看到了生成的一堆图像,它还能给视频添加字幕,他可以拍摄视频并配字幕,这些字幕和视频能用于训练多模态大语言模型。所以,能用这个基础模型训练机器人和大语言模型。

  这个平台有用于实时应用的自回归模型、生成高质量图像的扩散模型、超厉害的分词器,学习现实世界的 “词汇表”,还有数据管道。要是想用这些数据训练自己的模型,由于数据量巨大,我们已经从头到尾做了加速处理。

  Cosmos 平台的数据处理管道借助了 CUDA 和 AI 加速。

  今天,我们宣布 Cosmos 开源许可,已放在 GitHub 上,有小、中、大不同规模的模型,对应快速模型、主流模型,还有教师模型,也就是知识转移模型。希望 Cosmos 能为机器人和工业 AI 领域带来像 Llama 3 对企业 AI 那样的推动效果。

  物理AI将彻底改变价值50万亿美元的制造业和物流行业

  当把Cosmos 和Omniverse连接起来,魔法就发生了。

  根本原因在于,Omniverse是基于算法物理、原理物理、模拟构建的系统,是个模拟器。把它和Cosmos相连,能为 Cosmos 生成内容提供基准事实,控制、调节生成结果。

  这样一来,Cosmos 输出的内容就基于真实情况,就跟把大语言模型和检索增强生成系统连接起来一样,要让 AI 生成基于真实基准。二者结合,就成了物理模拟、基于物理的多元宇宙生成器,应用场景超令人兴奋,对机器人和工业应用来说更是清晰明了。

  Cosmos加Omniverse,再加上训练AI的计算机,代表着构建机器人系统必备的三类计算机。

  每个机器人公司最终都需要三台计算机:一台用于训练AI的DGX计算机;一台用于部署AI的AGX计算机,部署在汽车、机器人、自动移动机器人(AMR)等各种边缘设备中,实现自主运行。

  连接两者需要一个数字孪生,它正是所有模拟的基础。

  数字孪生是训练好的AI进行实践、改进、合成数据生成、强化学习和AI反馈等操作的场所,因此它是AI的数字孪生。

  这三台计算机将交互式工作,这套三机系统正是英伟达针对工业世界的战略,我们已讨论多时。与其说是“三体问题”,不如说是“三体计算机解决方案”,它是机器人领域的英伟达。

  下面举三个例子。

  第一个例子是工业数字化。全球数百万工厂、数十万仓库,构成了 50 万亿美元制造业的支柱,未来都要软件定义、实现自动化,融入机器人技术。

  我们和全球领先的仓库自动化解决方案提供商凯傲(Kion),还有全球最大的专业服务提供商埃森哲(Accenture)合作,聚焦数字制造,一起打造特别的方案,来看一下。

  我们的市场推广策略和其他软件、技术平台一样,借助开发者和生态伙伴。越来越多生态伙伴接入 Omniverse,因为大家都想数字化未来产业,全球 GDP 里这 50 万亿美元蕴含太多浪费和自动化机遇。

  (展示视频)

  未来,一切都能模拟。每个工厂都会有数字孪生,用 Omniverse 和 Cosmos 生成一堆未来场景,AI 挑出最优场景,成为部署到真实工厂的 AI 编程约束条件。

  下一代车用处理器 ——Thor

  第二个例子是自动驾驶汽车。

  经过多年发展,Waymo、特斯拉取得成功,自动驾驶革命已然来临。

  我们为这个行业提供三类计算机:训练 AI 的系统、模拟与合成数据生成系统 Omniverse 和 Cosmos,还有车内的计算机。每家汽车公司与我们的合作方式可能有所不同,可能使用一台、两台或三台计算机。

  我们今天特别高兴地宣布,丰田和英伟达达成合作,打造下一代自动驾驶汽车。还有 Lucid、Rivian、小米、沃尔沃等等众多公司。

  图森未来在造有自我感知能力的卡车,本周还宣布奥罗拉(Aurora)要用英伟达技术造自动驾驶卡车。

  全球每年生产 1 亿辆车,路上跑着几十亿辆车,每年行驶万亿英里,未来都会高度自动驾驶或全自动驾驶,这将是个超大规模产业。光看已经上路的几辆车,我们这块业务营收已经有 40 亿美元,今年预计能到 50 亿美元,潜力巨大。

  今天,我们发布下一代车用处理器 ——Thor。

  这就是Thor,机器人计算机,处理海量传感器信息,无数摄像头、高分辨率雷达、激光雷达的数据一股脑涌进来,它要把这些转化成token,送进Transformer,预测下一步行驶路径。

  Thor已经全面投产,处理能力是上一代Oren的20倍,Oren可是当下自动驾驶车辆的标配。

  Thor 不仅用于汽车,也能用在完整机器人里,比如 AMR(自主移动机器人),或是人形机器人,充当它们的大脑、操控器,是通用机器人计算机。

  我还特别骄傲地宣布,我们的安全驱动操作系统(Safety Drive OS)如今是首个获汽车功能安全最高标准 ASIL D 认证的软件定义可编程 AI 计算机,成果非凡,让 CUDA 有了功能安全保障。要是造机器人用英伟达 CUDA,那就妥了。

  下面给大家展示怎么用 Omniverse 和 Cosmos 在自动驾驶场景里做事。今天不只是给大家看车在路上跑的视频,还会展示怎么用 AI 自动重建汽车数字孪生,用这个能力训练未来 AI 模型,来看。

  (展示视频)

  是不是不可思议?

  几千次驾驶就能变成几十亿英里的数据。虽然路上还是需要实际车辆持续收集数据,但利用这个基于物理、贴合现实的多元宇宙能力生成合成数据,为自动驾驶 AI 提供海量精准合理的数据用于训练。

  自动驾驶行业势头正猛,未来几年,就像计算机图形技术飞速变革一样,自动驾驶发展速度也会大幅提升,令人无比期待。

  通用机器人“ChatGPT 时刻” 近在咫尺

  再聊聊人形机器人。

  通用机器人领域的 “ChatGPT 时刻” 近在咫尺,我讲过的这些赋能技术,会在接下来几年促成通用机器人领域快速又惊人的突破。

  通用机器人之所以重要,是因为有履带、轮子的机器人需要特殊环境适配,而有三类机器人无需特殊场地,能完美融入我们现有的世界,堪称理想之选。

  第一类是具身智能机器人,有了具身智能,只要办公室电脑算力够,这类信息工作者机器人就能大显身手。

  第二类是自动驾驶汽车,毕竟我们花了一百多年建设道路和城市。

  第三类就是人形机器人了,要是攻克这三类机器人相关技术,这将成为全球有史以来规模最大的技术产业,所以机器人时代马上就要来了。

  关键在于怎么训练这些机器人。对人形机器人来说,采集模仿信息很难,开车时我们一直在产生驾驶数据,但人形机器人要采集人类示范动作既费力又耗时。

  所以,我们得想个巧妙办法,利用人工智能和 Omniverse,把成百上千的人类示范动作,合成为数百万个模拟动作,让 AI 从中学习执行任务的方法,下面给大家展示具体怎么做。

  全球开发者都在打造下一代物理 AI,也就是具身机器人、人形机器人。开发通用机器人模型需要海量现实世界数据,采集、整理成本高昂。英伟达 Isaac Groot 平台应运而生,为开发者提供四大利器:机器人基础模型、数据管道、模拟框架,还有 Thor 机器人计算机。

  英伟达 Isaac Groot 的合成运动生成蓝图,是一套模仿学习的模拟工作流程,让开发者能用少量人类示范,生成指数级规模的大数据集。

  首先,借助Gro Teleop,熟练工人能用Apple Vision Pro进入机器人的数字孪生空间。

  这意味着,就算没有实体机器人,操作员也能采集数据,还能在无风险环境下操控机器人,避免物理损坏或磨损。要教会机器人一项任务,操作员通过几次远程操控示范,捕捉动作轨迹,再用 Gro Mimic 把这些轨迹扩充成更大的数据集。

  由英伟达 Isaac Groot驱动,通用机器人时代即将来临。

  我们会有海量数据用于机器人训练。英伟达Isaac Groot平台为机器人行业提供关键技术元素,加速通用机器人的开发。

  AI超级计算机走向桌面

  还有个项目得给大家介绍一下。要是没有十年前启动的这个超厉害的项目,这一切都无从谈起,它在公司内部叫 Project Digits——深度学习GPU智能训练系统。

  在推出之前,我把DGX做了精简,让它与RTX AGX、OVC以及公司其他产品适配,DGX 1的诞生彻底革新了人工智能领域。

  过去打造超级计算机,得自建设施、搭建基础设施,工程浩大。我们打造的DGX 1,让研究人员和初创公司开箱即用,拥有AI超级计算机。

  2016年,我把第一台DGX 1送到一家叫OpenAI的初创公司,埃隆・马斯克、伊利亚・苏茨克韦尔等好多工程师都在场,共同庆祝它的到来。

  显然,它变革了人工智能与计算领域。但如今人工智能无处不在,不只是在研究机构和创业实验室。就像开头讲的,人工智能成了新的计算方式、软件构建方式,每个软件工程师、创意艺术家,只要用电脑当工具的人,都需要一台 AI 超级计算机。

  我一直希望 DGX 1 能再小点,想象一下,女士们、先生们。

  这就是英伟达最新的 AI 超级计算机,当下它叫 Project Digits,要是你有更好的名字,欢迎告诉我们。

  厉害的是,这是台AI超级计算机,运行整个英伟达AI栈,英伟达所有软件都能在上面跑,DGX云也能部署,放哪儿都行,无线连接,也能当工作站用,像云超级计算机一样远程访问,英伟达AI都能运行。

  它基于一款超神秘芯片GB110,我们最小的Grace Blackwell芯片,给大家看看里面。

  是不是超可爱?

  这芯片已投产。这款高度机密的芯片由我们和全球领先的片上系统(SOC)公司 Mediate 合作打造,把CPU和英伟达的 GPU 通过芯片到芯片的Mv link连接起来。预计五月左右上市,太令人期待了。

  它大概长这样,要是你用PC、Mac,都没关系,它是云平台,能放在桌上,也能当Linux工作站用。要是想多几台,用 Connect.X连起来,带多个GPU,开箱即用,超算栈一应俱全。这就是英伟达 Project Digits。

  我刚讲了,我们有三款新的 Blackwell 产品投产,不仅 Grace Blackwell 超级计算机、nvlink 72 系统全球量产,还有三款全新 Blackwell 系统。

  一款惊艳的 AI 基础世界模型,全球首个物理 AI 基础模型开源了,激活全球机器人等行业;还有三类机器人,基于具身智能的人形机器人、自动驾驶汽车,都在发力。这一年成果丰硕。感谢各位的合作,感谢大家到场,我做了个短视频,回顾去年,展望来年,播放一下。

  祝大家在 CES 收获满满,新年快乐,谢谢!

  风险提示及免责条款

  市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

责任编辑:刘明亮

  

返回顶部