1、LLM如何炼成"数学推理大脑"?这篇论文揭秘大模型推理的秘密
大语言模型在解决复杂问题方面展现出令人惊叹的能力。然而,这些模型的推理能力究竟是如何形成的?一篇最新论文,深入解剖了大模型学习推理的内在机制,为我们揭开了人工智能思考的神秘面纱。
研究者们聚焦于两个不同规模的大语言模型(7B和35B参数),通过分析其预训练数据,探索模型是如何获得数学推理能力的。他们发现,模型并非简单地从数据中检索答案,而是从大量文档中提炼出"程序性知识",类似于人类学习解决问题的方法。这意味着模型能够从包含解题步骤和方法的文档中,抽象出通用的推理策略。
最令人兴奋的发现是,代码数据在模型的推理过程中扮演着关键角色。研究表明,包含数学公式、算法和解题步骤的代码文档,对模型的推理能力有着显著的影响。这就像是为模型提供了一套解题"秘籍",使其能够灵活地应对不同的数学问题。值得注意的是,模型并不是简单地记忆答案,而是学会了理解和应用解题过程。
这项研究不仅揭示了大语言模型推理能力的形成机制,还为未来的模型训练提供了宝贵的洞见。研究者建议,与其试图在预训练数据中穷尽所有可能的场景,不如聚焦于高质量的、展示多样推理过程的数据。这一发现为人工智能的发展指明了一个全新的方向,让我们对机器学习的潜力充满期待。
论文标题:Procedural Knowledge in Pretraining Drives Reasoning in Large Language Models
论文链接:https://arxiv.org/abs/2411.12580
2、LLM的"数据泄密"有多严重?
在人工智能飞速发展的今天,多模态大模型以其惊人的性能席卷了科技圈。然而,藏在光鲜亮丽背后的一个严重问题正悄然浮出水面——数据污染。一个国际研究团队开发的创新检测框架MM-Detect,首次系统性地揭示了多模态大语言模型中令人震惊的数据泄露现象。
研究者们发现,当前许多备受瞩目的多模态AI模型存在严重的"数据污染"问题。他们提出了两种创新的检测方法:选项顺序敏感性测试和插槽猜测扰动字幕技术。通过对11个不同的多模态模型和5个视觉问答数据集的深入分析,研究团队惊讶地发现,无论是开源还是商业模型,都不同程度地存在数据泄露,这些泄露极大地影响了模型的性能评估和实际表现。
更令人吃惊的是,数据污染并非仅仅来自多模态训练阶段。研究发现,污染源头可能追溯到模型的预训练阶段。这意味着模型的性能提升可能并非真正源于模型能力的提升,而是直接"作弊"获得的。这一发现不仅质疑了当前模型性能评估的公平性,也为AI研究者敲响了警钟,提醒我们需要建立更加严格和透明的模型评估机制。
这项研究不仅仅是一个技术上的突破,更是对人工智能发展的一次诚实审视。研究团队呼吁建立持续更新的多模态模型基准测试系统,并标准化多模态数据集的使用,以minimiz数据污染,提高数据一致性和质量。这无疑将推动人工智能领域向着更加严谨和可靠的方向发展。
论文标题:Both Text and Images Leaked! A Systematic Analysis of Multimodal LLM Data Contamination
论文链接:https://arxiv.org/abs/2411.03823