安永(中国)企业咨询有限公司与上海市人工智能与社会发展研究会近日联合发布了《可信人工智能治理白皮书》。这份报告深入探讨了人工智能的全球发展态势、监管体系、可信原则、关键问题、企业合规要求、风险治理理论等多个方面,旨在为政策制定者、企业管理者、技术开发者以及所有关心AI发展的读者提供全面、深入、客观的参考和指导。报告中不仅分析了人工智能技术在各行业的应用现状和挑战,还详细介绍了企业AI治理的进阶工具和行业实践案例,包含了丰富的行业洞察和解决方案,对于理解和应对AI技术发展中的伦理、法律和社会问题具有重要价值。
《可信人工智能治理白皮书》深入剖析了人工智能技术的迅猛发展及其带来的伦理、法律和社会问题,强调确保AI技术的“可信”属性是全球关注的焦点。随着AI技术的广泛应用,其在提高生产效率、解决社会问题的同时,也带来了前所未有的挑战。报告指出,全球已有69个国家和地区制定了人工智能相关政策和立法,涉及AI治理、隐私保护、数据监管和伦理规范等主题,反映了全球对AI技术发展的重视及对潜在风险的管理需求。
欧盟《人工智能法案》作为全球首部全面且具影响力的人工智能法规,将AI系统分为最低风险、低风险、高风险和不可接受风险四级,对高风险系统实施严格监管。美国则采取特定行业的方法,通过《2023年算法问责法案》等立法,为受AI系统影响的人们提供保护。中国虽尚未出台人工智能专门立法,但已初步建立限制和规范人工智能开发与应用的法律框架。
“可信人工智能”被定义为技术可靠、安全,输出公正结果,基本原理和运行过程透明,可问责且以人为本的人工智能系统。报告强调,相关利益方应积极理解AI的核心原则,建立可信AI体系,构建AI治理与风险管理架构,并随着监管态势、科技发展、社会生产力等变化动态调整,以实现可持续发展进步。
在全球范围内,人工智能的可信性已成为发展AI的一致性原则。G20人工智能可信原则、欧盟可信AI原则等国际性指导原则,旨在确保AI的发展方向能够符合人类社会的共同利益,AI应用是可持续、负责任和以人为本的。安永认为,具有问责性、合规性、可解释性、公平性等原则的人工智能才是可信AI。
报告还指出,企业在应用人工智能技术时面临着数据隐私、算法偏见和内生安全问题等风险与挑战。例如,某大型网约车服务平台推出的“车费保镖”服务因算法透明度不足而受到批评。算法偏见问题可能导致系统输出结果带有不公平性,影响特定群体。数据安全问题则涉及数据源获取的合法性、数据泄露风险等,对企业合规应用AI技术提出了新的挑战。
在人工智能风险治理方面,报告提出了风险治理架构,包括风险识别、评估、监控和缓解等多个环节,涵盖了数据管理、模型开发、技术应用和伦理合规等多个方面。这一架构不仅关系到企业的合规性、安全性、社会责任和商业连续性,还直接影响到企业的运营效率、决策质量、创新能力和市场声誉。
人工智能技术的崛起为企业提供了巨大的机遇,但同时也带来了复杂的风险挑战。一个全面的人工智能风险治理架构对于企业来说至关重要,它不仅关系到企业的合规性、安全性、社会责任和商业连续性,还直接影响到企业的运营效率、决策质量、创新能力和市场声誉。通过有效的风险治理,企业不仅能够提升自身的竞争力,也能够为社会的可持续发展做出贡献。
报告中的行业调研显示,汽车、医药、零售和服务等行业在AI应用上的现状和挑战各有不同,但共同面临的是如何构建和运营自己的AI管理体系。通过这些行业案例,我们可以看到AI技术的发展不仅仅是技术层面的突破,更是对人类社会价值观、伦理道德和法律体系的一次全面考验。只有通过不断提高对风险的把控能力,预判、分析和应对潜在的治理问题,建立起一套公正、透明、高效的AI治理体系,才能确保AI技术的健康发展,让它成为推动人类社会进步的正能量。
这篇文章的灵感来源于《可信人工智能治理白皮书》,它为我们提供了对人工智能未来发展的深思熟虑。除了这份报告,还有一些同类型的报告也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。
以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。
【蝉鸣报告】每日更新最新硬核报告,覆盖产业报告、全球化、经济报告、趋势等全领域。