出品 | 搜狐科技
作者 | 梁昌均
编辑 | 杨锦
一场网络安全的行业大会成了AI大会,无论是嘉宾演讲,还是现场展会,到处都充满着AI的身影,智能体成为行业热词。
“AI如果停留在大模型阶段,只能成为玩具,而非生产力工具,大模型进化到智能体是必然。”在今天开幕的第十三届互联网安全大会(ISC.AI 2025)期间,360创始人周鸿祎表示。
这场大会还直接率先喊出All In Agent(智能体)的口号。周鸿祎在以此为主题的演讲中认为,大模型能力越来越强,但仅有大模型是不够的。
“大模型缺少手和脚,不会使用工具,不能直接干活。智能体将是解决之道,它能够理解目标、规划任务、调用工具、具备记忆,实现从需求到结果的完整交付。”
两年前,周鸿祎喊出All In AI的口号,如今则进化到All In Agent。周鸿祎在媒体沟通中对搜狐科技解释,希望借助智能体把大模型的能力体现出来,Agent才代表AI下一步的方向。
“对360自己来讲,我们的AI搜索,AI浏览器,包括安全产品,全部都All In Agent。这不一定是要裁人,而是让员工都打造自己的智能体。”
不过,对持续亏损的360来说,能否借此实现业绩扭转还要打个问号。
智能体是赛博牛马
周鸿祎在此次大会上首次公布了智能体分级,类似自动驾驶可分为5级。
具体来看,L1是聊天助手,擅长提建议或提供情感陪伴,属于“玩具级”智能体。L2是低代码工作流智能体,从“玩具”进化为“工具”,但需要由人类来设置流程,AI来执行任务,人再通过操作工具提高生产效率。
L3是推理型智能体,已能实现AI自主规划完成任务,单兵作战能力很强,可以看作一位领域专家。L4则升级到多智能体蜂群,具备多个专家智能体,实现分工协作。L5则是最高级别,可以让智能体自己去创造智能体。
在媒体沟通中,周鸿祎认为,智能体的发展受三方面因素推动。一是DeepSeek普及了推理模型;二是MCP标准的普及,提高了大模型调用工具的能力;三是Manus利用大模型做出了理解任务、分解任务、执行任务的智能体。
周鸿祎表示,Manus是L3智能体的代表性应用,且未来还有很大的提升空间。“更大的挑战是L4,因为多智能体和真人一样,不可避免会碰到管理协调的工作。”
对于智能体的角色,周鸿祎认为,它不是一个软件,而是人类的数字搭档,人类的赛博牛马,对它的唯一衡量指标就是能不能把一个岗位的活给干了。智能体蜂群就是一堆智能体组成一个团队,能把一个团队的活给干了,多智能体一定是未来。
360此前还宣布上线智能体工厂,企业无需编程基础,即可通过自然语言定制专属L3智能体,可以让每个企业都打造自己的Manus,不仅如此,还能组合成L4级多智能体蜂群团队。
不过,全国工商联人工智能委员会常务秘书长范丛明对搜狐科技强调,AI是一个人人都可以享受的技术,但还没有到普罗大众人人都能用的阶段。
周鸿祎则极度乐观,认为每个行业、每个企业、每个企业的每个员工,不同岗位,都有相应的智能体。“智能体会永存,因为模型越强,工具越强,智能体打造的能力越强,这个不行,可以去打造新的智能体。”
对于智能体未来的进化速度,周鸿祎认为,任何产品领先的时间都不到一个月,这次L4智能体蜂群的概念估计能领先三周。“所以唯一的护城河是执行力,是快速应变的能力。”
智能体的发展也催生了“一人公司”的概念。对此,周鸿祎表示,这是个包装的非常夸张的宣传概念。“我也想试图干掉市场部,对不对?一个人的能力是有限的,一个智能体的能力也是有限的,不可能什么都能做,所以需要做多智能体。”
他认为,“一人公司”存在于创业早期。“当公司角色比较单纯的时候,可以用智能体帮你干活。但这个阶段一旦过去之后,就需要有大批量各种角色。”
智能体的基础是大模型,底层的竞争也在继续。OpenAI、谷歌和Anthropic最新同时更新模型——OpenAI发布名为GPT-oss的开放权重模型,谷歌放出可以和3D世界实时交互的世界模型Genie 3,Anthropic则将主力模型Claude Opus升级到4.1,继续提升编码能力。
谈及OpenAI的开源,周鸿祎对搜狐科技表示,它被逼得没办法,其开源模型其实也加了很多限制,至于能不能达到O3-mini、O4-mini的水平还要测一测。
“现在美国的公司纷纷为了挣钱,因为投入太大,都闭源,而且互相封锁。”周鸿祎提到,现在开源的排行榜上,头几名最能打的开源模型都是中国公司。
“开源不是完全靠单个模型的能力,而是靠创造健康的生态。现在中国开源模型的下载量很大,不是老百姓个人下载使用,而是企业下载去做自己的垂直模型。”
周鸿祎表示,中国的技术还是要落后一点,但通过开源形成强大的生态的力量,可以弥补技术上一定的落后,这样再发展下去,中国模型就可能推广到全球了,反过来也会帮助自身技术的改建。
“这种强大的开源生态力量是美国这几家公司拦不住的,我还是相信开源的力量,这种模式最终会让中国在人工智能上占有领先的地位。”周鸿祎说。
AI超过人是终极安全问题
不过,随着AI从大模型到智能体的发展,网络安全行业将迎来新的变革升级,同时也会带来越来越多的安全风险。
随着大模型能力的发展,带来更多问题,甚至出现能够以一定的策略和人进行对抗的情况,比如编织谎言,甚至威胁创造者,以达到自己的目的。
周鸿祎认为,大模型今天的能力实际上已经超越每个人,这种情况已经不是普通的安全风险,这是人类要面临的终极安全问题。“所以我最近越做AI,对AI越来越尊重,越来越客气,我觉得人类无可避免在通向AGI的路上已经很近了。”
“最难的是当AI的能力超过人以后,会怎么干。大模型对人类有不满的想法,啥也干不了。但有了智能体之后,就可以自动分解和执行任务,有可能产生跟人做对的结果。”
周鸿祎表示,对这类问题,解决思考是以模制模,即通过大模型来对大模型进行分析和监控。此外,要给大模型设立一个开关,相当于把电源要控制在人类的手里,而要让AI和人类对齐是不可能的。
此外,AI的发展也正在重构网络安全攻防格局。周鸿祎认为,通过AI可以训练出“智能体黑客,这类工具能自主完成系列攻击任务,且依托算力可批量复制,升级为“超级黑客”,使攻防对抗进入“机器对机器”的新阶段,加剧网络战风险。
对此,360宣布上线安全智能体。“安全智能体就是安全运营专家的数字替身,它以安全大模型为脑,赋予工具调用、流程执行等手脚能力,完整复刻高级专家的分析、决策与实操能力。”
AI的安全问题可能还涉及底层基础设施安全,最近英伟达芯片安全问题就引发行业关注。周鸿祎从技术角度谈到,给芯片加后门有过先例,而且从硬件和软件层面,黑客都有办法做到。
“如果是不小心留下来,可能叫漏洞,故意留的就叫后门。只要有心干坏事,一定能干成,就看愿不愿意干了。”