近日,阿里云智能云原生应用平台发布了一份名为“AI应用(AI Agent)开发新范式”的行业研究报告。该报告深入探讨了AI应用从工具向智能伙伴的进化,重点介绍了AI Agent与大型语言模型(LLM)的双引擎模式,以及企业如何利用模型上下文协议(MCP)服务构建AI应用。报告还详细分析了构建AI应用的两条路径:全新开发与存量改造,并探讨了AI应用架构的新范式。这份报告不仅为理解AI应用的发展趋势和企业实践提供了丰富的视角,也为AI领域的专业人士和技术决策者提供了宝贵的参考和洞见。
AI应用开发正在经历一场革命,这场革命的核心是AI Agent和LLM的双引擎模式。AI Agent赋予了LLM“手和脚”,让“思考”得以转化为“行动”,而LLM则扮演着认知核心,也就是“大脑”的角色。这种模式不仅改变了AI应用的开发方式,也为企业带来了新的竞争力。
在AI应用的新范式中,MCP服务成为了企业能力的核心。MCP服务将企业零散的IT资产和服务,转化为AI可以理解和调用的标准化能力,为AI Agent提供了源源不断的技能支持。这种服务的规范化协同关系和快速对接能力,使得企业能够更高效地构建AI Agent技能系统。
企业在构建AI应用时有两种路径:全新开发和存量改造。全新开发意味着从零开始,为一个全新的业务场景或颠覆性的产品构想,原生设计和开发AI应用。这种方式能够最大化地发挥AI Agent的能力,是实现颠覆式创新的最佳路径。而存量改造则是指在企业现有的、成熟的核心业务系统中嵌入AI Agent的能力,对其进行“智能化升级”。这种方式能直接作用于核心业务流程,价值释放路径更短、更明确。
AI应用的基础架构也发生了变化,事件驱动、Agent代理、AI网关等成为了新的核心组件。这些组件不仅提供了统一的管控底座,还实现了各角色的协同调度。AI Studio作为阿里云自研的低代码构建AI Agent的产品,解决了开源Dify的高可用、稳定性、性能问题,使AI Agent的运行引擎更稳定。
函数计算FC作为AI Agent的运行时,提供了细粒度、高弹性、强安全的AI Agent运行环境。函数计算FC的触发器机制,实现AI Agent可灵活被调度,按请求扩缩,提升AI Agent资源利用率,降低资源成本。同时,函数计算FC和多个云上产品做好了集成,降低了运维成本。
在AI Agent的构建模式中,编码式和低代码式成为了主流。编码式AI Agent通常以编码方式构建为主,而低代码式AI Agent则通过可视化的方式快速构建。这些构建模式的选择,取决于企业的具体需求和资源情况。
构建AI Agent的核心问题之一是如何使用LLM时面临的各类问题。AI Agent需要选择合适的运行时,构建企业级MCP管理体系,以确保AI Agent能够安全、可控地运行。Sandbox环境为AI Agent提供了一个安全的游乐场,让它在其中探索和执行任务,同时又不会对外部真实世界造成意外影响。
云原生API网关在AI应用架构中扮演了核心角色,链接生态,提供服务治理、API管理、LLM管理、MCP管理等能力。云原生API网关的高性能、高可用、安全能力,使其成为了企业AI应用的基石。
MCP作为AI应用的新范式,解决了“N×M”集成问题,为人工智能模型和开发环境之间建立统一的上下文交互提供了标准化方法。然而,MCP模型、宿主环境和各种MCP服务器之间的相互连接,也会导致链路复杂性提升、性能瓶颈诊断困难、SLA难以保障以及安全等问题。因此,可观测是降低“熵增”最有效的办法。
AI应用开发新范式对企业的影响是深远的。它不仅改变了企业构建AI应用的方式,还提高了企业的竞争力。高德业务投放平台的Serverless实践就是一个很好的例子,它通过API First架构,实现了全链路Serverless,灵活弹性,按需快速组装业务功能。
这篇文章的灵感来自于《AI应用(AI Agent)开发新范式》报告。除了这份报告,还有一些同类型的报告也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。
以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。
【蝉鸣报告】每日更新最新硬核报告,覆盖产业报告、全球化、经济报告、趋势等全领域。