蝉鸣报告-硬核报告每天更新;
覆盖产业报告、全球化、经济、趋势等全领域...

【DeepSeek】大型语言模型遇到编程时的编码器-代码智能的兴起


近日,DeepSeek-AI与北京大学的HCST重点实验室联合发布了一份名为《DeepSeek-Coder: When the Large Language Model Meets Programming – The Rise of Code Intelligence》的行业研究报告。这份报告主要探讨了大型语言模型在软件开发中代码智能领域的快速发展,特别是开源代码模型DeepSeek-Coder系列的研发和性能表现。报告详细介绍了DeepSeek-Coder系列模型的技术特点,包括其从1.3B到33B不等的模型规模、基于2万亿个token的训练过程,以及在多个基准测试中超越现有闭源模型的卓越性能。报告中还包含了丰富的技术细节和实验结果,为理解当前代码智能技术的发展提供了宝贵的视角和深刻的洞见。

大型语言模型在软件开发领域的革命性进展,尤其是代码智能的发展,正在重塑编程的面貌。DeepSeek-Coder系列模型的出现,标志着开源代码模型的新纪元。这些模型从1.3B到33B不等,全部从头开始训练,覆盖了87种编程语言,总共训练了2万亿个token。DeepSeek-Coder模型不仅在多个基准测试中达到了开源代码模型的最新水平,而且在多数评估基准中超越了现有的封闭源模型,如Codex和GPT-3.5。

代码智能的兴起,带来了自动化和简化编码的潜力,从错误检测到代码生成,提高了生产力,减少了人为错误的可能性。DeepSeek-Coder系列模型通过高质量的项目级代码语料库进行预训练,并采用填空任务和16K窗口来增强代码生成和填充能力。这些模型的广泛评估显示,它们在多个基准测试中超越了现有的开源代码模型,并且在代码相关任务中与OpenAI GPT-3.5 Turbo相比表现更好。

DeepSeek-Coder的训练数据集由87%的源代码、10%的英文代码相关自然语言语料库和3%的代码无关的中文自然语言语料库组成。这些数据不仅增强了模型对代码相关概念的理解,还提高了处理库使用和错误修复等任务的能力。在数据创建过程中,DeepSeek-Coder采用了包括数据爬取、基于规则的过滤、依赖解析、仓库级别的去重和质量筛查等步骤,确保了数据的质量和模型训练的有效性。

在模型架构方面,DeepSeek-Coder系列包括1.3B、6.7B和33B参数的模型,这些模型都建立在DeepSeek大型语言模型的框架之上。每个模型都是一个仅解码器的Transformer,结合了旋转位置嵌入(RoPE)和分组查询注意力(GQA),提高了训练和推理的效率。

DeepSeek-Coder在处理长代码输入方面的能力也得到了增强,通过扩展上下文长度到16K,使得模型能够处理更复杂和广泛的编码任务。此外,DeepSeek-Coder-Instruct模型通过基于指令的微调,进一步提升了模型在代码相关任务中的表现。

在实验结果方面,DeepSeek-Coder在代码生成、FIM代码补全、跨文件代码补全和基于程序的数学推理等任务中表现出色。例如,在HumanEval和MBPP基准测试中,DeepSeek-Coder-Base的平均准确率分别为50.3%和66.0%,超过了同样大小的开源模型CodeLlama-Base 34B。在LeetCode Contest基准测试中,DeepSeek-Coder-Instruct 6.7B和33B的Pass@1分数分别为19.4%和27.8%,超过了现有的开源模型,如Code-Llama-33B。

DeepSeek-Coder系列模型的发布,不仅推动了开源代码模型的发展,也为研究人员和开发者提供了强大的工具,以促进代码智能的进一步研究和商业应用。这些模型的成功,证明了开源模型在代码生成和理解方面的潜力,同时也为未来的代码智能研究提供了新的方向。

这篇文章的灵感来自于《DeepSeek-Coder: When the Large Language Model Meets Programming – The Rise of Code Intelligence》这份报告。除了这份报告,还有一些同类型的报告也非常有价值,推荐阅读,这些报告我们都收录在同名星球,可以自行获取。

以上为节选样张,关注公众号【蝉鸣报告】回复领取PDF完整电子版(无广告)。

蝉鸣报告】每日更新最新硬核报告,覆盖产业报告全球化经济报告、趋势等全领域。

 

未经允许不得转载:蝉鸣报告(原爱报告知识星球) » 【DeepSeek】大型语言模型遇到编程时的编码器-代码智能的兴起

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

如何快速寻找资料?

关于我们赞助会员