蝉鸣报告-硬核报告每天更新;
覆盖产业报告、全球化、经济、趋势等全领域...

【未来生命研究所】AI安全指数


未来生命研究所(Future of Life Institute)近日发布了《AI Safety Index》报告,这份报告对七家领先的人工智能公司在管理高级AI系统所带来的即时伤害和灾难性风险方面的努力进行了独立评估。报告揭示了一个与自身快速能力提升相挣扎的行业,风险管理和安全规划的关键缺口威胁到我们对日益强大的AI系统的控制能力。报告中包含了丰富的数据和专家评审,提供了对AI安全性的深刻见解,对于理解当前AI领域中的安全实践和挑战具有重要价值。

AI安全指数报告揭示了人工智能行业在风险管理和安全规划方面存在的重大缺陷。这份由未来生命研究所发布的报告,评估了七家领先的AI公司如何管理高级AI系统带来的即时危害和灾难性风险。

报告中,Anthropic公司以C+的成绩领先,其次是OpenAI和Google DeepMind。这些公司在风险评估、安全框架和治理方面表现相对较好,但仍存在明显不足。例如,尽管Anthropic在隐私方面表现出色,没有使用用户数据进行训练,并且在对齐研究方面领先,但其在风险评估方法的透明度和明确性方面仍需改进。

OpenAI作为唯一发布其举报政策的公司,在风险管理方法和模型规范方面也表现出色。然而,整个行业对于实现人工通用智能(AGI)的目标准备不足,没有一家公司在存在性安全规划方面得分超过D。这表明,尽管公司竞相开发接近人类水平的AI,但缺乏确保这些系统安全可控的明确、可操作的计划。

报告还指出,只有三家公司(Anthropic、OpenAI和Google DeepMind)报告了针对大规模风险(如生物或网络恐怖主义)相关的危险能力的实质性测试。尽管这些公司在模型卡的质量上有所提高,但专家指出,基本的风险评估标准仍然缺失,对于及时检测危险能力以防止重大伤害的信心很低。

在风险管理实践方面,能力的提升速度远远超过了风险管理实践,公司之间的差距正在扩大。没有共同的监管基础,一些有动力的公司采取了更强的控制措施,而其他公司则忽视了基本的安全保障,凸显了自愿承诺的不足。

举报政策的透明度仍然是一个弱点。在安全关键行业中,公开的举报政策是一个常见的最佳实践,因为它们允许外部审查。然而,在被评估的公司中,只有OpenAI发布了其完整的政策,并且这是在媒体报道揭示了政策的高度限制性不贬损条款之后才做的。

中国AI公司Zhipu.AI和DeepSeek都获得了不及格的总体成绩。然而,报告根据自我治理和信息共享等规范对公司进行评分,这些规范在中国企业文化中远不如在西方突出。此外,由于中国已经对高级AI开发有规定,因此对中国公司来说,对AI安全自我治理的依赖性较小。这与美国和英国的情况形成对比,其他公司都设在这两个国家,而这两个国家迄今为止还没有通过任何关于前沿AI的规定。

这篇文章的灵感来自于未来生命研究所发布的“AI安全指数”报告。除了这份报告,还有其他一些同类型的报告也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。

以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。

蝉鸣报告】每日更新最新硬核报告,覆盖产业报告全球化经济报告、趋势等全领域。

 

未经允许不得转载:蝉鸣报告(原爱报告知识星球) » 【未来生命研究所】AI安全指数

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

如何快速寻找资料?

关于我们赞助会员