“学AI要先学会用大模型。”
文|《中国企业家》记者 赵东山
编辑|张晓迪
头图来源|受访者
2025年初,360创始人周鸿祎又拍了几部短剧,剧本里很多的剧情设计,都是他和DeepSeek碰撞出来的结果。
过去2年里,面对人工智能的狂潮,他既像一位布道者,激情描绘技术重塑千行百业的图景;又似一名实干家,冷静拆解大模型落地中的安全与伦理难题。
在日常的工作和生活中,周鸿祎身体力行地拥抱各种AI大模型应用——从短视频脚本到商业决策,他强迫自己“没事就问AI”。在他构想的未来中,每个个体都该建立专属知识库,让大模型成为“亦师亦友的超级助手”。他直言,“学AI要先学会用大模型。”
对于AI大模型引发的焦虑,周鸿祎展现出实用主义者的清醒。谈及AI可能引发的失业潮,他抛出“森林遇熊”理论:“善用AI的人,即使跑得没有熊快,但也永远跑得比同伴快。”
2025年开年,DeepSeek如同一条鲇鱼,搅动了全球AI大模型圈。因其在技术优化、成本压缩以及开源模式上的优势,迅速在全球AI大模型圈引发讨论,迄今热度不减。
在周鸿祎看来,“DeepSeek对中国产业最大的影响,实际是让大家各自归位,找到各自的产业链定位,否则大家一窝蜂地‘百模大战’,实际在重新发明轮子,都在希望做通用大模型,都在做AGI,谁的卡也不够,谁的数据也不足。现在都已经有了DeepSeek了,要么你用便宜的API,要么装一个DeepSeek。所以,很多小应用会起来。”
开源,也是周鸿祎眼中颠覆格局的胜负手。“开源是统战,把朋友搞得多多的”,他坚信中国通过开源生态能成为全球AI科技树的“根技术”提供者。
当闭源巨头在垄断与监管间挣扎时,DeepSeek等开源模型正以“科技平权”之势渗透至百万企业。这种生态虹吸效应,被他视为中国在AI生态领域超越美国的关键:“当几百万中国企业用上本地化大模型时,中国将有望率先在全球实现新一轮工业革命。”
当被问及AI伦理风险时,周鸿祎的回应直击本质:“不发展是最大的不安全”。他并不讳言大模型的“幻觉”问题,他认为这是AI创造力带来的双刃剑:“没有幻觉的大模型就不聪明了,就像人失去了想象力。”
对于企业级应用可能存在的幻觉问题,周鸿祎提出“以模制模”的解法——用安全大模型约束基座模型的“胡言乱语”,通过知识库校正、搜索矫正与多模型协作构建护城河。
在今年全国两会上,全国政协委员、360创始人周鸿祎带来了3份提案,内容涉及“适度包容大模型幻觉”“解决大模型应用安全”以及“以安全即服务破解网络安全行业困境”三个方面。
以下为周鸿祎媒体访谈实录(有删减):
谈DeepSeek和AI大模型对大众的影响
问:DeepSeek春节以来破圈爆火,您认为AI会引发失业潮吗?
周鸿祎:我觉得不好说,因为AI肯定会消灭一批岗位,但也会产生一批新的岗位。所以,不管AI怎么发展,掌握AI、学习AI、了解AI,让自己成为超级个体。就像有个笑话说,在森林里,你问我遇到熊怎么办?要不跑得快,如果跑得不如熊快,跑得比同伴快就行。
问:对于普通人和大学生,您有哪些建议?
周鸿祎:我认为,学AI先学会用大模型是最重要的。虽然现在你不用大模型也能混,一定要养成学会正确用大模型的习惯。公司很多人开会来问我,老周这事儿怎么办?我说你问过大模型没有,我们花了那么多钱,搭建了那么多算力,我们是免费用且不限量,DeepSeek还要买API呢,结果你们自己都不用。
很多人用的时候就把它变成了一个传统搜索引擎,问事实性答案“天为什么这么蓝?”“北京今天多少度?”这个还不如不用,没啥意义,你用它不能下命令,不能把它当成一个机器,不能当成电脑,你要把它当成一个亦师亦友的专家顾问,有什么事儿跟它倾诉。
比如我之前拍一个短剧,剧情大概是:“未来人工智能统治了人类,派一个像《终结者2》一样的变形美女机器人,可以异装的杀手来360公司杀我,请设计10种杀我的方法。”DeepSeek就告诉我说:“第一化装成你的女秘书;第二给你咖啡里下毒;第三假装给你按摩,勒脖子把你勒死。”这主意都是DeepSeek给设计的,后来就找了黄奕来拍。我那短剧里还有很多对周星驰的桥段进行致敬,全是我给DeepSeek提的要求。
所以,表达很重要,会问问题很重要。不要迷信它的结果,我觉得它的结果仅供参考,讨论过程更重要。
谈DeepSeek对行业格局的影响
问:您觉得自从有DeepSeek之后,其他中国大模型厂商是否还有必要继续投入做通用模型?
周鸿祎:会让大家各自归位。AGI和DeepSeek这条路一定还得有人走,也不可能把希望都放在DeepSeek一家,还得有点竞争嘛,有点相互的激励嘛,但肯定不是“百模大战”,基本还得有足够算力的,至少万卡以上的。整个国家对训练算力的需求会减少,但对某一家公司来说,训练算力还是要加大。我认为,字节、阿里肯定会坚定地干下去。
问:最近,百度等公司都宣布模型将开源,您如何看待大模型领域的开源潮?
周鸿祎:李彦宏非常睿智,他原来是不太认可开源,因为他认为他的模式是接近OpenAI的,但他比OpenAI更聪明的是及时转身,宣布开源。他开源之后,阿里更坚持开源,没准字节也会开源。这个开源的生态形成一个巨大的虹吸效应。开源一旦形成气候,一定能战胜闭源。
开源战胜闭源,所有互联网的粉丝都应该承认这一点,没有开源就没有互联网。首先我们要认可开源战胜闭源靠的是强大的生态虹吸力量。
DeepSeek开源之后实际创造了一个机制,只要开源超过了闭源,所有的公司,开发人员都会选择在它的上面来做应用,它就变成了人工智能的根技术。大家知道,技术是有科技树的,根技术最厉害,因为我的根一旦变化,上面都要跟着变。
美国AI领域为什么害怕这一点,DeepSeek相当于让所有人薅它的羊毛,这叫无招胜有招。但带来的回报是在另外一个层面,肯定对DeepSeek来说没有挣到一分钱,假如DeepSeek只有200人,200人是竞争不过Google的,也未必竞争得过字节,而且时刻准备着被同行们挖人。但是一旦开源之后,全世界不说有200万人,怎么得有20万人全球最优秀的这些开发者、工程师、大学教授、博士生们是不是来DeepSeek的生态里来帮你找问题,帮你做改进,在你上面做插件,在你上面做应用。
这会产生一种“生物大爆炸”的效果,很多基于DeepSeek成果会获得加速的技术发展。而这些成果又会回馈在DeepSeek社区里,这就是我们经常讲的开源生态。
开源本是美国人发明的文化,也因此产生了互联网、MySQL等很多例子,只不过中国以往没有开源的文化,但我们很多人没有意识到开源的威力,而这一次是中国真正地主导开源。
所以,DeepSeek这次开源对整个中国传统企业在产业里用大模型来降本增效,来打造新质生产力,这个杠杆作用是非常大的。因此,将来中国在AI的生态上超越美国,由生态带来更强的研发力量,带来更多的创新和改进,带来更多的标准,全世界将来AI的应用系统都是架构在我们中国发起的一个根技术上。
这就和今天的互联网都建立在美国根服务器上的概念实际是一样的,而且中国的应用又能够做到比美国普及,个人用户又比美国多,企业又率先用到最好的模型。这对中国新质生产力的打造很有帮助。
谈AI对生产领域的影响
问:“人工智能+”将如何影响民生领域,医疗、教育、智慧城市等?
周鸿祎:人工智能是一场工业革命,所以它会重塑所有的行业。比如在医疗、健康、养老方面,从个人角度讲,有了DeepSeek加持之后,每个人可以有个医学顾问或者慢病专家,或者养老陪伴的助手。
所以,我一直觉得人工智能在中国一个重要的发展方向是人人智能,每个人都可以有各种方面的专业助手,能够像个亦师亦友的顾问一样。过去我们软件APP都达不到这种能力。
从产业角度,可以分三类:
第一类像传统的医院,它是传统行业,人工智能可以通过加速它的数字化改造,智能化升级,提升效率,比如美国医院里利用AI来自动给病人打电话预约时间,利用AI来自动处理家庭医生、社区医生传来的病历传真,使得病人候诊的时间能够缩短很多倍。
第二类企业是合成生物、生物制造这类新兴产业,人工智能可以成为其研究的工具和范式。
第三类,像研究人类的基因图谱,通过基因来抗癌,这属于AI for Science,就是用大模型这种算法模式套到生物学里,变成生物学研究的工具。
总之,AI的应用范围非常多,日常对话和成为你的助理,只用到它5%的功能。最重要的是和产业结合之后,无论是对老板的决策支持、对员工的工作能力加强,还是对内管理、业务流程这种改善效率,以及对外的产品服务和对客户角度,都能够找到很多过去卡点和堵点,用大模型针对某个场景,结合专业知识库和智能体实现降本增效。
谈AI搜索的机会
问:搜索是现在很多AI玩家想要抢占的赛道,在竞争激烈的环境下,您会不会有一些危机感?如何在竞争激烈的赛道中脱颖而出?
周鸿祎:我一直都有危机感,因为搜索本来就是一个巨头林立的赛道。最早我们是想用AI来改造搜索,以此提升搜索的体验。经过这轮竞争之后,我们发现,搜索的地位前所未有的重要,因为搜索现在成了所有大模型必配的功能。现在Google、OpenAI、DeepSeek,特别是DeepSeek推出默认带搜索功能之后,全球都这么跟进。
因为大家发现,一个大模型如果不具备搜索能力就意味着你不会用搜索这个工具,你对互联网啥事儿都不知道,在训练的时候不能保证所有的资讯都用过了,很多资讯找不到,你的结论往往是不完整的。所以,搜索就变得很关键。
和其他搜索厂商一样,我们也引入了DeepSeek等50种模型,通过这些模型的协作,有的模型擅长改写,有的模型擅长总结,有的模型擅长推理和分解任务。我们春节期间没有DeepSeek涨得快,DeepSeek7天涨了1个亿的用户,我们15天涨了2000万手机用户。现在PC上我们的流量很大,我们有了很好的基础后,剩下的问题就是要仔细打磨用户的体验和把各种深度的工具做好。
传统搜索的理念被颠覆了,大家要把搜索变成Deep Research深度的搜索,你提个问题之后,我不是搜一遍,而且把它搜多遍,拿回来资料再经过分析后再搜索,可能经过多次循环,保证把这个问题在互联网给你扒得干干净净,提炼得非常系统。这里面还有很大的空间可以做。
搜索,谁说一定要只搜全网呢?搜索能定向搜索,你问的是医学的问题,我就把美国这种定向医学的一些知识库专门进行搜索,你搜的是企业问题,我就定向从企查查去搜。
问:360的优势在哪里?
周鸿祎:我认为,我们做的最对了几件事儿:
第一,很早我就在强调,大模型是能力,不完全是产品。虽然今天DeepSeek也能用,但等到你用到一定的时候也会觉得不满足,所以,它也要产品化。因此,一定要找好场景,我们很早就开始找了搜索的场景。
第二,我不是等DeepSeek热门了才跟它合作,我去年8月份就和它合作了,当时开了一个“复仇者联盟”的会,把中国16家大模型都请来。所以,到今天我还能提供多模型的协作能力。
DeepSeek出来之后,很多家大模型厂商才意识到,你要没有足够的资金和人才密度,再做AGI,做大模型是没有意义的,应该转型做应用。去年当我和16家大模型合作时,我们就已经转型在做应用了。所以,做应用会更有它的价值。
DeepSeek对中国产业最大的影响,实际是让大家各自归位,找到各自的产业链定位,否则大家一窝蜂地“百模大战”,实际在重新发明轮子,都在希望做通用大模型,都在做AGI,谁的卡也不够,谁的数据也不足。现在都已经有了DeepSeek了,要么你用便宜的API,要么装一个DeepSeek。所以,很多小应用会起来。
谈人形机器人
问:您如何看待最近人形机器人的火热和未来,如果360感兴趣这个赛道,可能会聚焦在哪个特定领域呢?
周鸿祎:机器人是属于未来产业,我还看过北京市的世界机器人博览会,我还拍了个短视频。我的观点很简单,第一前景很广阔,人形机器人一定是未来;第二没有大模型,人形机器人寸步难行。
摄影:孔月昕
如果大模型技术不成熟,机器人面临什么问题呢?首先视觉都是看见的能力,不能看懂,可以感知不能认知,和人没法对话,没法交流,没有语言能力就没法和人交互,大脑没有很强的推理能力,那只能接受简单指令了。
只要大模型在发展,对它就是非常有利的帮助。剩下的问题,我认为是成本问题,就是机械手可能是最重要的关键,因为它要仿真人手,但中国的产业化能力,就像无人机和智能车一样,能把价格降到别的国家认为是不可能的程度。所以,我估计还有个几年,如果这个价格降到几万元一个机器人,进工厂、进家里就会比较实用了,我比较看好养老机器人。
问:随着AI的发展,机器人的智商会加速进化吗?
周鸿祎:我认为至少两点:第一,用现在的推理大模型和知识大模型,就是我们已有的大模型技术,肯定会随着我们大模型能力的提升而提升的;第二,当大模型加到机器人身体之后,机器人能够物理感知这个世界,它就创造了一种新的人工智能去感知世界的方式,因为在这之前,大语言模型只能看文字、听声音、看图片、看视频,但不能亲自感知这个世界,如果加上之后,这个感知对于智力能不能提升,我就不太懂了,但我感觉应该是能提升的。
谈AI带来的安全风险
问:您如何看待AI技术进步带来的新的安全风险?
周鸿祎:第一,要正确地认识AI的安全问题,不能夸大也不能忽视。现在有一种趋势,主要是OpenAI等美国的前5家AI公司都是想搞垄断,所以他们往往会夸大AI不安全的问题作为他们不开源的借口。他们往往希望政府加强管制,加强管制之后,后来者就没有机会赶上他们。在这种背景下《足球彩票app平台ios》谈AI安全属于“耍流氓”。
我一直认为,不发展是最大的不安全,你必须要抓住AI这次工业革命的机会,提升生产力,包括让科技普惠在每个人身上。
第二,AI的安全和业务的发展,我认为同步可以走,应该能找到解决方法。但不要笼统地谈AI安全,因为什么事儿一笼统地谈就很难有解了。比如AI的“幻觉”问题不完全是AI安全问题。因为“幻觉”是大模型固有的特点,没有幻觉的大模型就不聪明了,幻觉是大模型像人一样有智力的体现。
DeepSeek的幻觉是很严重的,所以你们用它写文章才觉得确实像人。为什么原来的幻觉不严重,它没有想象力,幻觉是想象力和创造力的基础。所以,不能严格、笼统地把它定义为幻觉。幻觉是AI安全的一个问题。
幻觉有了之后,确实又有严重问题,比如把大模型在企业内部,比如这个企业是医疗、法律、金融、证券或者用在生产、制造业这种不能出错的地方,大模型给你乱编一气,给你乱警报,那么幻觉就是非常严重的问题。
所以,我们把大模型问题做了一个分工,今年我提的建议里也有,DeepSeek一定会火,而且DeepSeek是真火,不是虚火,因为它确实解决了人工智能大模型从“不可用”,从“凑合用”到“完全可用”“能用”的阶段。所以,DeepSeek不光是你们各位在用,我也在用,中国很多企业,政府都要主动地用。这时候DeepSeek安全问题就出来了。
但是网上现在对DeepSeek的安全问题,还是把它当成一个传统IT设备看安全。这个思路是过时的,这种传统网络安全的解题方法是解决不了人工智能的安全问题。人工智能的安全问题,对DeepSeek来讲至少分成四个层面:
1.基座模型的安全问题。如何在AI领域防止幻觉。幻觉是可以防止的,为什么DeepSeek一定要联网才好用?因为用了互联网的知识库来做个校正。为什么在企业里应用一定要连上企业专有的知识库,也是要做个校正。
其实DeepSeek比较容易出的问题是什么?它作为一个模型,任何人皆可PUA,任何人皆可攻击。被PUA之后它就绝对听你的,你打听老板的啥事儿它都告诉你,你公司什么内部知识库的资料问它,你没有权限都可以得到。这是比较严重的问题,是基座模型的问题。
2.客户端的安全问题。大家用基座模型总要通过一定的软件去用,所以以后大家很多工作都要和公司里的大模型聊天、交流,这里有用户端安全的问题,怎么防止用户在用户端对它发起攻击。
我们做了一个测试,决定DeepSeek结果的其实现在不是提示词,而是要学会建立个人知识库。为什么大家在网上会争论,搜索结果不一样?很简单,搜索的能力不一样,你给它搜了30篇很好的文章,大模型读了就给你总结起来头头是道,你弄了20篇垃圾文章,可能又是另外一个低水平AI写的文章。差异就在于你给什么数据。
3.知识库的安全问题。知识库有个问题,一旦你把企业很重要的资料放到知识库里并给大模型了,大模型就开始知无不言,言无不尽了,谁问大模型都会如实地把知识库里能看到的都会告诉他。这就会有数据安全的问题。
所以,智能体的安全、知识数据的安全、客户端的安全,还有基座模型的安全,构成一个新的人工智能安全的新领域。这个解决方法我们也有了,关键问题是“以模制模”。
责任编辑:郝欣煜