近日,赛迪机构发布了《机密计算保障人工智能系统安全研究报告》,这份报告深入探讨了在新一代人工智能技术快速发展的背景下,如何通过机密计算技术来保障AI系统的安全性。报告详细分析了AI安全的需求与挑战,机密计算的现状与趋势,以及机密计算在保障AI系统、模型和数据安全方面的应用,并展望了机密AI的未来发展趋势。这份报告为理解AI安全框架的构建和机密计算技术的应用提供了宝贵的视角和深刻的见解,其中包含了许多对行业决策者和技术专家极具价值的内容。
在人工智能技术飞速发展的今天,安全问题成为了我们不得不面对的挑战。《机密计算保障人工智能系统安全研究报告》深入探讨了AI安全的需求、挑战以及机密计算如何保障AI系统的安全。报告指出,AI的广泛应用带来了前所未有的安全挑战,我们需要建立一个全面的AI安全框架,来有效控制这些风险。
大模型时代,AI安全的需求日益增长。报告中提到,AI系统安全涵盖了数据安全、算法安全、模型安全以及系统安全四个方面。数据安全要求保护存储、传输和使用中的数据不受泄露和篡改;算法安全强调决策过程的公正性和鲁棒性;模型安全关注AI模型在开发和部署过程中的机密性和完整性;而系统安全则是基础,确保业务层安全措施得以实施。报告中强调,系统安全是最基础和最重要的,它关系到整个AI系统的安全性。
然而,AI安全面临的风险和挑战不容小觑。报告列举了一系列的安全风险,包括平台可信性风险、内存攻击、存储攻击、侧信道攻击等系统安全问题;模型窃取攻击、模型后门攻击等模型安全问题;以及缺乏可解释性、对抗性攻击等算法安全问题。这些风险和挑战对现有的AI安全解决方案提出了更高的要求。
报告中对机密计算技术的原理与应用价值进行了深入分析。机密计算利用硬件可信执行环境(TEE)来保护“使用中”的数据安全,这一点对于数据全生命周期的保护至关重要。长期以来,加密技术已经为“传输中”和“静态存储”的数据提供了防护,但“使用中”的数据却缺乏有效的保护手段。机密计算的出现,正好弥补了这一空白,为用户提供了全方位的数据安全保护。
机密计算的技术路线与产业生态也在不断发展。报告指出,针对不同的体系架构,出现了多种机密计算技术路线,其中x86体系较为成熟,ARM和RISC-V体系也在积极跟进。系统级TEE方案备受产业界关注,成为未来发展的重要方向。此外,行业联盟和标准化组织正致力于制定统一的机密计算技术标准和规范,以提升产品的易用性、安全性和兼容性。
机密计算保障AI系统安全的思路也非常明确。报告中提到,AI技术栈的四层结构中,系统层的安全至关重要。如果系统层存在安全漏洞,训练数据和推理数据就有可能从底层被泄露,对整个AI服务的安全构成严重威胁。因此,引入密态计算技术至系统层是保障AI系统安全的关键。
微软Azure机密AI技术和阿里云机密AI技术架构与实现是报告中两个具体的案例。微软Azure机密AI技术基于AMD的SEV-SNP,通过可信执行环境中的机密机器学习推理模块、客户端以及通用模块三部分,实现了模型提供者和用户之间的信任问题转移,避免了相互不信任的问题。而阿里云机密AI则运用机密计算可信执行环境分离开了模型数据的所有权和使用权,结合TEE Runtime Trustiflux和信任管理服务Trustee等软件框架,实现了模型数据的安全授予和独占性保护。
报告还展望了机密AI的未来趋势。随着发展规模的持续扩大,标准建设的逐步完善,技术协同态势的显著,以及行业应用的不断深化,机密AI将在电子政务、金融、医疗、工业和商业等多个领域发挥重要作用。特别是在关键行业对多方安全计算的需求不断增长的背景下,机密AI的市场空间将更为广阔。
这篇文章的灵感来源于《机密计算保障人工智能系统安全研究报告》。除了这份报告,还有一些同类型的报告也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。
以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。
【蝉鸣报告】每日更新最新硬核报告,覆盖产业报告、全球化、经济报告、趋势等全领域。