大语言模型(Large Language Model,LLM,简称“大模型”)是指具有超大规模参数量和数据量的神经网络模型。大模型通过从大量文本或多模态数据中学习语言和模式识别能力,可以更好地理解和处理自然语言,甚至生成新的文本或内容。狭义的大模型,即大型语言模型,指具备数十亿乃至万亿参数,通过高达万亿词元数量的文本语料训练出来的深度神经网络模型。广义的大模型则包含了文本、声音、图像和视频等多模态任务。大模型的快速发展,得益于充分利用注意力机制进行序列建模的变换器网络(Transformer)架构,以及诸如稀疏变换器网络的各种模型。如今,变换器网络架构最终统一了语言、视觉、声音和多模态的建模。本虚拟专辑集合了本刊近期与大语言模型相关的论文,为从事相关研究的学者提供参考。