“2024 中国高新技术论坛”于11月14日在深圳举行。中国工程院院士、鹏城实验室主任高文出席并演讲。
以下为演讲实录:
高文:今天我和大家分享的是“AI赋能新质生产力发展”的命题作文。
我讲两点:一是关于今年诺奖给了人工智能,谈谈我的考虑;二是关于人工智能发展现在我所在的鹏城实验室做了一点东西。
首先看第一部分。
为什么今年的诺奖会给人工智能两个,物理学奖和化学奖,它背后的逻辑是什么?到底是什么使得这两个奖最后找到了人工智能?可能大家不知道,背后的逻辑是科学大奖赛,是靠比赛最后选出了获奖人。
先说问题,这一轮人工智能起来,是深度神经网络。要想凑深度神经网络的热闹,那一定要给做深度神经网络的人一个奖,到底给谁?最后给了他俩,给他俩的主要理由,Hopfield就是统计物理学家,后半生主要做神经网络,但是用统计物理学的方法在研究神经网络。右边这个和物理学没什么关系,但他发展了Hopfield基于统计学的神经网络,给出了玻尔兹曼机,是优化问题。优化问题是数学问题,但他用了Hopfield的模型,最后他拿了奖。获奖,这个领域一点问题都没有。化学也一样,把这个问题给了一个蛋白质折叠的预测。右边两个人(Demis Hassabis 、John M.Jumper)是做软件的,只有最左边这个人(David Baker)是真正做这个行业的。它是一个搭配,但这个搭配里面有非常深层次的原因。
诺奖很愿意蹭热度,在上世纪70年代也有一个人工智能的专家得诺奖,他(赫伯特·西蒙)得的是诺贝尔经济学奖。刚才陈院士提到,智能里很重要的是推理,上世纪70年代的人工智能主要在研究推理,研究推理时赫伯特·西蒙给了一个决策模型,要推理时最后要拍板到底哪个对哪个错,他给了一个决策模型。为了蹭人工智能的热度,这个决策模型说在社会学里可以使用,就给了赫伯特·西蒙。
诺奖在抓一些在社会上影响比较大,可能会带动一个潮流的领域。
今年为什么给了物理学奖和化学奖?它的判断是由两个科学大赛引出来的。
第一个,物理学奖,真正确定要给谁的是由于ImageNet比赛(机器视觉比赛)。但机器比赛太绕口,这个比赛的数据库叫ImgeNet。这个图像数据库是现在人工智能里比较有名的斯坦福大学教授李飞《cc彩票账号怎么注册的》飞领着学生做出来的图像数据库,用这个图像数据库
2010年开始正式比赛,全世界所有做计算机视觉和算法的都可以来比赛,你说你的算法厉害,是骡子是马拉出来练练。这个练是在大数据上练。ImgeNet这个图像数据库里有1500万张图像,里面有22000类目标或者叫物体。它给出一张图像,问你这图像里有什么,你就回答这个图像里有什么,你回答对了就不减分。比如这里有一只猫,你说是老虎,那你就错了,就扣分。谁扣分扣得最少谁就得第一。
2010年得第一的,他的错误率是28.2,2011年的错误率是25.8,到2012年错误率一下降了10个百分点,16.4。当时大家说你这个算法挺有意思,一下可以提升这么多。做科学研究的都知道,努力一年能提升一两个百分点都不错了。他说我用了一个神经网络做的。从2013年以后全都是深度神经网络,只是里面的层数不一样、配置不一样等等。
ImgeNet比赛2012年这个结果是深度神经网络在应用中的第一滴血。如果你要找最根上的东西,那肯定要找这个,所以AlexNet就被确认为入围诺奖物理学奖最重要的线索。Alex没有得到这个奖,他的导师得到了,他的导师就是物理学奖第二位的Hinton。Hinton是深度神经网络里活着的最大人物。深度网络做起来有三个人比较关键,这三个人是2006年分别各发表了一篇论文,告诉说深度神经网络可以做大规模的使用。2006年也被称为是深度神经网络的元年。深度神经网络这三个人中Hinton是排第一的。这三个人是不是都要给?物理学奖虽然可以给三个人,但学生没给,光给老师,和老师无关的另外两个人好像也不是很合乎逻辑。就在这里面找,Alex导师是新的,他在这一轮神经网络中贡献不错,但和物理学没太大关系,就要往前挖。Hinton在1985年写了玻尔兹曼机,1986年的BP网络是今天深度神经网络优化的基础模型,所以要给应该给他这个工作。但说还不能说这个工作,还要说玻尔兹曼机。确定了要给Hinton,但Hinton又不是物理学家,要给物理学家Hopfield,Hopfield都90多岁了,他做梦都没有想到突然会拿到这样一个奖。
第二个,这个更有意思。前面那个是2012年的结果,2024年才给的奖。这个更快,蛋白质折叠的预测是非常挑战的工作,原来做结构生物学的科学家全世界大概能预测出1万个左右的蛋白质三维结构。但实际上生命界存在的蛋白质大概有上亿,一万和上亿之间差了1万倍。如果按常规方法,要把所有蛋白质结构解析出来,要一万年的时间,这是不可忍受的。1994年有一个马里兰大学的教授提出一个比赛,他说有没有可能用已有的蛋白质结构、已有的序列,去预测新的东西,因为它每年都会产生将近1万个。每年产生1万个,先不公布,拿这个东西来比赛,看看谁的算法好。从1994年开始每两年就有一次CASP大赛,这个比赛前些年的结果不怎么样,2006、2008年预测的准备率都在40%上下,40%能预测对,60%预测错的,准确率很低没有办法用。2016、2017年AIphaGo非常热,当时AIphaGo把人类围棋打败,有人问过DeepMind的CEO下一个目标是什么,他说我下一个目标是拿诺贝尔奖。那时候他已经想清楚了他要参加CASP比赛,而且他很肯定,他在这个比赛里只要拿了冠军,他将来就可能获诺贝尔奖。这个年轻人的想法很直截了当。2018年第一次去参加他们的得分就将近60,一下提升了将近20个百分点。2020年到90分,常规的东西已经价值没有那么大了,这个的价值就比较高了。他一下把原来很多合成生物学的科学家饭碗打掉了,现在合成生物学的工作都要转到怎么用这个东西了。
正因为这个工作,确定了后面这两位的奖。但后面两位不是传统意义上化学领域专家,所以光给预测还不行,还要给蛋白质设计,要找一个人来陪榜。所以第一个人是真正做蛋白质设计和预测的,主要做设计,三维结构可以人工设计,他得了一半。后面两个做计算机的得了另外一半。
这告诉我们什么?科学比赛对于评价一个科学发现的价值,也是非常重要的,以前都说论文重要,因为论文需要沉淀,需要大量人去引用。但你参加这个比赛,就非常直截了当,你把别人打败了,那你就厉害。怎么厉害,你可以把它写成论文,但这个结果是由大赛产生的。
鹏城实验室是在深圳的一个国家实验室,网络通信领域。现在网络通信和人工智能分不开,所以我们也做人工智能应用。
为了做这个东西,前些年我们一直在做算力,用算力支持人工智能大模型的训练,所以我们做了一个鹏城云脑2,这个机器的性能非常好,在存储性能方面连续八次获得世界超算比赛榜单,连续八次第一,而且它在人工智能性能榜单以及人工智能图搜索榜单上都是表现非常突出的。
这是4096块卡用华为昇腾芯片做的机器。(见PPT)
这个机器做出来后,国内很多大模型都是在这个机器上训练的,包括大家经常听到的华为盘古,它早期的版本都是在这个机器上训练的,也包括百度文心,还有像北京智源的模型。
我们开源了很多东西,也有一大批,包括丝路、大圣、扁鹊、通言、通图、常羲等等。
这台机器从2020年10月份上线到现在差不多4年,4年运行下来,机器的使用率非常饱满,90%多的使用率。其中大概只有一半48.27是实验室自己使用,剩下大部分都分享出去给合作单位甚至公益机构使用。
(短视频播放)
这是2020年时。
我们这个机器上线后训练了一批模型,线上开源社区里有很多我们的模型,包括7B、33B和200B的模型,有兴趣的都可以到那儿下载。200B的模型是比较典型的任务,花了差不多7个月时间,用整台机器,这里面的3456卡做训练,另外的做数据整备和验证。这个模型训练出来当时也比较不错。
这些模型都是用开源方式做,所以可以做各种各样的合作。
这是云脑2,正在做的是云脑3,云脑3的算力是云脑2的16倍,里面用了2万多块最新华为的卡,每一块卡的算力相当于H100的当量。
这台机器的原型已经完成了,我们在原型基础上开始做视频内容的生成,用Open-sora跑,可以生成几十秒甚至几十分钟的视频。后面就是生成一段内容,大家可以看一看。
(短视频播放)
刚才陈院士说科学无国界,地球上的科学家都应该互相合作,其实外星球的也一样。
科学大赛非常重要,鹏城实验室这几年在深圳市科创委的组织下,我们也搞了一个全国人工智能大赛,这个人工智能大赛已经举行了很多届,每年都有几千个队伍来参加比赛,今年还会有,希望大家关注。
科学大赛对于科技成果的评价有很重要的作用,中国的人工智能大模型要有自己的底座、算力,这样才能承载我们想做的智能和中华文明的传承。对于这样一些生态,希望大家关注,谢谢大家!
新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
责任编辑:梁斌 SF055