ISACA Blog | AI Agents还是Agentic AI?别让术语混淆耽误你的AI决策
在快速发展的人工智能世界中,两个术语正日益主导相关讨论:“AI agents(AI智能体)与agentic AI(自主型AI)”。虽然这两个词听起来很像,也常被混用(甚至存在多种中文译名),但它们代表的是两种截然不同的AI能力路径。搞清这个区别不只是学术问题——它直接关系到你能否为自己的业务选对真正合适的AI解决方案。
AI术语的自然演化
就像许多新兴技术一样,AI领域的术语总是在快速变化,常常跑在我们理解力的前面。“AI agents”和“Agentic AI”这两个术语如今已悄然进入日常商业对话,有时甚至被当作同义词使用,尽管它们指代的概念其实大不相同。这种语言上的自然演进本身并不奇怪,也不成问题——语言本来就会随着现实变化而调整。然而,这种自然的术语转变确实给决策者带来了挑战。我看到过许多组织在努力理解他们真正需要的东西。一个能独立评估风险、提出建议并可能采取行动的复杂系统,与一个仅仅提供现有数据对话接口的系统,两者之间存在显著差异。当这些不同的能力被混在相似的术语下时,明确指出适合具体需求的正确解决方案就会变得困难。
什么是AI agents
根据ISACA的《人工智能:机器学习、深度学习和神经网络入门》中的定义,“agent是做出决策并执行操作的实体或机器,更准确地说,是学习算法。”但关键点在于:成为agent并不等于拥有自主性。Anthropic(一家成立于2021年的美国人工智能公司)将所有利用大语言模型(LLM)完成任务的AI系统都归为“Agentic系统”,但其中存在一个重要的架构差异:
-
工作流(workflows):LLM 和工具通过预设代码路径协调运行;
-
智能体(agents):LLM 能动态指挥自己的流程和工具调用。
简单来说,AI Agents是一种能够响应输入并执行特定任务的接口或实体。当环境越复杂,AI系统越能通过自然语言指令代表用户自主行动时,它们就展现出越强的Agentic特性。这类系统包括:
-
企业AI平台中的"Agents":在企业AI平台中帮助用户在不同AI模型之间进行选择的模型筛选接口
-
传统聊天机器人:遵循"输入→处理→输出"模式的响应式系统
-
客服机器人:处理常规咨询的规则遵循型系统
需要强调的是,这些系统都并非完全自主运作。它们始终响应人类指令,并在预设的参数范围内运行。
理解Agency与Agents的区别
在AI和认知科学语境中,Agency 指的是一个系统作为“行动主体”(agent)所具备的“自主发起、目标导向、承担责任”的能力。它源于社会学(如 Giddens 的结构化理论)和哲学(如自由意志讨论),强调 “我不是被驱动的,我是主动做的”。以上定义可以帮助我们理解agent与agency之间的差异:
-
一个AI可以是agent(智能体),但不一定具备真正的agency(能动性)
-
Agency意味着能够基于目标独立评估、决策并采取行动
-
传统聊天机器人属于agents,因为它们能够响应输入,但缺乏agency,因为它们不追求独立目标
什么是Agentic AI?
Agentic AI代表了具备真正agency的更高级AI形态。与传统AI不同,Agentic AI系统被设计为高度自主运行,能够独立完成假设生成、文献综述、实验设计和数据分析等任务。这类系统具备以下能力:
-
自主设定目标与优先级
-
规划多步骤行动以实现目标
-
根据经验自主适应与学习
-
无需人类明确指令即可主动行动
-
采取前瞻性运作模式而非被动响应
现实案例:差异对比
客户服务场景
AI agent——无agency(能动性):
-
使用预设话术回应会员咨询
-
根据关键词分配服务工单
-
从知识库中提供信息查询
-
遵循预定义的决策树流程
-
达到程序设定阈值时自动升级处理
Agentic AI——具备agency(能动性):
-
独立评估会员需求与具体情境
-
主动在多个系统中寻找解决方案
-
根据优先级和紧急性做出判断决策
-
基于会员画像和历史记录调整沟通方式
-
主动预防潜在问题(例如:"注意到您正在咨询认证续期事宜——是否需要我为您核查继续教育学分状态?")
ISACA场景下的具体应用
对ISACA这类组织而言,这种差异将转化为截然不同的能力:
-
传统agent模式: 被动应答型系统,例如回答"我的认证何时到期?"
-
Agentic AI模式: 主动管理会员认证全生命周期的系统,能够识别资质差距、推荐相关培训并协调续证提醒
能力对比表:

协同运作
二者最显著的差异之一,在于它们如何在更大系统框架中运作。传统AI agents通常独立执行特定任务,而Agentic AI则需要对多个组件进行协同调度,以实现自主运行。
尽管这个比喻很常用,但我仍倾向于将Agentic AI视为交响乐团的指挥——它协调整个乐团,确保每位乐手在正确的时间演奏乐器,并与其他乐手保持和谐。被协调的关键组件包括:
-
作为特定任务基础构件的AI代理
-
感知与输入处理模块
-
记忆与知识管理系统
-
推理与规划引擎
-
行动与执行模块
-
工具集成能力
-
支持多代理协作的通信层
-
集成与协同框架
-
监控、反馈与治理系统
为何“自主”不等于“独立”
在AI领域,“自主”这一术语常常引发误解,因为它并不意味着完全脱离人类独立运作。相反,AI代理的自主性指的是在预设参数范围内,无需人类持续进行逐步指导,即可独立运作、决策并执行任务的能力。
以下阐释为何需要人机交互的高级AI系统仍被称为“自主”系统:
-
它们遵循人类设定的高层目标,执行以目标为导向的行动,并将其分解为可执行的具体任务
-
不同于僵化的基于规则的系统,它们具备灵活性,能适应环境变化并做出实时决策
-
它们通过经验积累和反馈机制持续学习与改进
-
它们最大限度减少——但并非完全消除——对人类持续监督的依赖
-
它们能够运用集成工具并与外部系统交互以实现目标
实际业务影响
理解二者差异对不同业务场景具有重要现实意义:
合规监控
-
AI agent:基于预设规则标记合规问题
-
Agentic AI系统:独立评估风险等级、调查背景信息并推荐具体行动方案
审计流程
-
AI agent:通过查询知识库回答审计问题
-
Agentic AI系统:独立确定审计重点、设计测试程序并根据发现动态调整方案
风险评估
-
AI agent:使用既定公式计算风险分值
-
Agentic AI系统:独立调查新兴风险,关联多源数据,并主动提出风险缓释策略
如何做出正确选择?
核心问题并非哪种方法更优越,而是如何为您的特定需求匹配恰当的解决方案。
基于大语言模型构建应用时,专家建议寻求尽可能简单的解决方案,仅在必要时增加复杂度——这可能意味着完全不需要构建Agentic系统。
以下场景适合选择AI agent:
-
需要为现有数据提供高效接口
-
需要对常规咨询提供一致响应
-
需要对明确定义的任务进行经济高效的自动化处理
-
需要可预测的、基于规则的操作
-
需要对明确定义的任务保持可预测性与一致性的工作流
以下场景适合选择Agentic AI:
-
需要系统能独立评估并应对复杂情境
-
需要主动解决问题的能力
-
需要对变化条件作出自适应响应
-
需要跨多个系统与数据源的集成能力
-
需要大规模实现灵活性及模型驱动的决策
在为业务评估AI解决方案时,关键不仅要考虑准确性,还需权衡成本——不同AI系统的运行成本可能差异显著,却可能产生相似的结果。这意味着对多数商业应用而言,简单的AI agent方案将比复杂的Agentic AI系统更具成本效益。
结语:懂区别,才能做对决策
尽管AI agent与Agentic AI属于相关概念,但它们代表着不同的技术复杂度与自主化层级。AI agent擅长处理特定且定义明确的任务,是优化常规运营的理想工具;而Agentic AI则代表着一种思维范式的转变——转向能够更独立地进行思考、规划与行动的系统。
市场中存在的术语重叠现象,往往反映了新兴技术语言的自然演进过程。随着AI技术能力的发展与普及,从开发者、企业决策者到解决方案提供商,不同参与者自然会通过特定术语来传递这些概念。准确理解这些差异,将助您更有效地把握技术发展脉络,并为组织作出能创造真实价值的AI方案决策。
请谨记:并非所有agent都属于Agentic AI,也并非所有业务问题都需要Agentic解决方案。关键在于根据你的具体需求、预算及风险承受能力,选择与之匹配的AI能力层级。
随着该领域持续演进,我们或将看到更多混合架构——由不同类型的agent在更庞大的系统内协同处理各类任务。最重要的是,您需要清晰理解自己所采购与实施的究竟是什么。
翻译:刘畅,CISA、CISM、ISO27001Auditor,ISACA微信公众号特邀通讯员。
校对:王亮(Lionel Wang),CISA,ISACA中国翻译工作组成员,致力于网络安全、数据安全、个人信息保护、工控安全以及IT审计方向的研究
.png)







