蝉鸣报告-硬核报告每天更新;
覆盖产业报告、全球化、经济、趋势等全领域...

【CSET】汉语对大型语言模型的批判


近日,Center for Security and Emerging Technology(CSET)发布了一份名为《Chinese Critiques of Large Language Models: Finding the Path to General Artificial Intelligence》的行业研究报告。该报告深入探讨了大型语言模型(LLMs)在实现通用人工智能(GAI)方面的局限性和挑战,以及中国在追求GAI过程中采取的多元化AI发展策略。报告指出,尽管LLMs在模仿人类语言能力方面取得了显著进展,但它们在推理、理解语言和处理复杂任务方面存在明显缺陷,中国科学家和政策制定者对此表达了深度关切,并积极探索除LLMs之外的其他路径。这份报告为理解中国在AI领域的战略布局和未来趋势提供了宝贵的视角和深刻的洞见。

大型语言模型(LLMs)在全球范围内引起了广泛关注,因为它们能够生成类似人类的回应,完成节省时间的任务,甚至一度被认为是“有感知力”的证明。这些模型被许多人视为通往通用人工智能(GAI)的路径,即计算机在大多数或所有任务中达到甚至超越人类技能的假想状态。然而,这份名为《Chinese Critiques of Large Language Models: Finding the Path to General Artificial Intelligence》的报告揭示了LLMs在实现GAI方面的局限性,并提出了中国在AI发展上的多元化策略。

报告指出,LLMs在处理基本数学问题时存在缺陷,尽管可以通过插件来纠正,但这些缺陷表明LLMs在理解语言和类人推理方面存在严重不足。尽管模型复杂性的增加提高了LLMs在各种基准任务上的表现,但“幻觉”问题——即LLMs制造错误声明的能力——以及推理错误仍然难以克服。研究表明,随着模型复杂性的增加,错误/幻觉答案的可能性也在增加。

中国的AI研究者对LLMs作为GAI路径的能力持怀疑态度。例如,清华大学的唐杰教授认为,人类级别的AI需要模型“在世界中体现”。他指出,尽管规模法则还有很长的路要走,但这并不能保证GAI的实现。张亚勤,微软亚洲研究院的联合创始人,提到LLMs存在的三个问题:计算效率低,无法“真正理解物理世界”,以及所谓的“边界问题”,即标记化问题。他主张需要探索如何将大型生成性概率模型与现有的物理世界“第一原理”或真实模型和知识图谱结合起来。

报告还强调了中国政府在AI研究中注入“价值观”的努力,旨在指导自主学习,提供AI安全,并确保中国的先进AI反映人民和国家的需求。中国在追求GAI的过程中,不仅投资于LLMs,同时追求其他替代路径,包括更明确地受大脑启发的方法。

中国科学家的研究记录显示,他们正在寻求LLMs的替代路径,因为LLMs的不足阻碍了大型模型实现与GAI相关的普遍性。中国的研究者们提出了多种解决方案,包括增加模块、模仿大脑结构和过程、严格的标准和测试,以及用改进的芯片类型直接替换计算基底。

中国的AI社区对LLMs能否实现GAI持怀疑态度,并正在考虑或追求替代路径。这与西方的研究趋势形成鲜明对比,后者在商业利益的推动下,继续沿着LLMs的道路前进,忽视了LLMs的根本局限性。中国的策略可能在实现GAI的竞赛中给予其优势,类似于中国在光伏面板、电池技术和电动汽车领域取得的领先地位。

文章的灵感来自于这份报告,它提供了对LLMs和GAI的深刻见解。除了这份报告,还有许多其他有价值的同类型报告,它们都收录在同名星球,供有兴趣的读者进一步探索和研究。

以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。

蝉鸣报告】每日更新最新硬核报告,覆盖产业报告全球化经济报告、趋势等全领域。

 

未经允许不得转载:蝉鸣报告(原爱报告知识星球) » 【CSET】汉语对大型语言模型的批判

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

如何快速寻找资料?

关于我们赞助会员