以下内容为现场演讲实录:
尊敬的付会长和各位专家,各位合作伙伴,大家好,我是科大讯飞刘俊峰。
在我发言之前,付会长说的这两分钟,我心里打了好几次鼓,该怎么往下说呢。一方面,人工智能已经渗透到生活的方方面面,“摩尔定律”被不停地刷写它的周期速度。当前来看,从前年ChatGPT发布到去年、今年,从它的Sora到GPT-4o,在这个过程里面,大家心存非常高的期待,真的可以在生活中更多场景里面碰得到它。跟刚才您说我们的翻译机一样,我们在十年前做多语种的翻译还是非常痛苦的。现在,尤其是在上个月6月27日,在北京星火4.0发布会上,星火语音大模型已经可以支持37个多语种和37个方言免切换的实时交流了。这样的变化也是一次一次挑来的失败而获得的。我认为还是大势所趋的必然,就是从大模型到汽车上的必然。
一方面,我们可以看“相邻可能”的理论,不管是看AI Phone还是AIPC,从iPhone15更新了新的版本,从谷歌到高通发布AIPC,都是在用大模型和我们身上经常用到的东西来做深入结合。可能现在我们还赶不上别人的,但我相信随着国内更多大模型的厂商、大模型的从业者去积极投入,一定会有更好的效果。我们一直都判断,大概半年到十个月的时间是能追上别人的。
从4.0发布之后,我们积极探索大模型和汽车结合的整个路径,还是会看到很多从主机厂到相关合作伙伴遇到的种种问题。一方面,大模型和车深度结合的关系,我们建议大家要用一个系统的AI工程的链路,去分析端和云的大模型的构建该如何排布。因为在这个过程里面涉及到非常多的问题都是从底层开始的,底层的像我们如何在一个100K,后面更多200K这样的高算力的座舱平台上;或者是动不动几十tops,100tops,甚至有很多车已经备到了一个P的智驾平台上,能够把合适的AI算法,包括大模型、智驾算《彩神welcome入口》法放得好,一方面叫“用足”,一方面叫“用透”。
因为在不同的供应商或者不同的设计理念里面,从CPU、GPU、NPU、ADSP,这些里面如何放合适的算法,其实大家会有争夺,在争夺的过程中,会造成有些算法因为尺寸不足而削减了自己的效果。
另外,你还要给未来的升级留下足够的空间可用,这样的系统设计它是从量产之初到未来,它是连续性的。这是一个类似于像水电改造,像大家设计电子电路,像设计以太网一样,我认为要放在汽车现在智能化的底座层面来去看的。
上面各种的场景应用,我认为大家应该用一个开放、包容、探索的心态来面对,今天你随便挂一个你喜欢的窗帘,明天心情坏了,换一个颜色就好了,那是一个非常简单、非常快速试错的过程。在这个层面,我认为现在大家往往从内部想的是挂什么颜色窗帘的事,很少把水电改造的事想好。
第二个顺着邬总的话来说,他把车描述为“智能的伙伴”,又说是“不靠谱的闺蜜”,这里面涉及到隐私的问题。因为我们要用大模型让它做充分的个性化,让它充分懂你,这时候你才能把工作交给它;但又担心它到别的地方说你的闲话。所以,端和云这种Hybrid的架构是非常重要的,隐私数据安全是要放在端上,去把它很好地保护起来,这样它能做到既懂你,又可以不到外面说闲话,真正变成知心的闺蜜。
第三,在我们遇到的一些主机厂提出的需求和产品的规划,其实都非常富有拥抱创新的精神。不过到了最后的产品质量验收上,往往遇到这样新的东西,好像感觉到流程变慢了。我非常喜欢刚才贺院长的模式和流程,其实要想在前面。如果用传统的模式验收一个新东西,往往你是遇到更多的恐怖。从技术生命周期进入采用周期,往往一开始只有2%是积极拥抱,剩下的98%都是心存怀疑的,但就是那2%引发了整个技术的变化。我们非常希望在这个过程中,和大家共同探索,一起去研究,真正把大模型和汽车的交互,和汽车更多提效,还有非常多有意思的场景共同设计出来,探索着做出来。从下半场的智能化,我认为AI和大模型跟汽车的结合会变得更有意思,我们非常期待那一天,也非常希望和大家携手一起探讨那个美好未来。
谢谢付会长,谢谢各位!
新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
责任编辑:梁斌 SF055