2025年初,机器学习研究持续高速发展,涌现出多篇重要论文,带来了全新能力并改进了现有技术。
本文将带你了解2025年迄今为止发布的五篇具有重大意义的机器学习研究论文,涵盖计算机视觉、语言模型、数据评估和模型效率等不同领域。

阅读本文后,你将了解:
计算机如何准确追踪视频中的物体语言模型在训练期间内部发生了什么研究人员如何衡量训练数据的价值让AI语言系统更快的新方法为什么某些AI架构表现优异让我们一同探索这些创新成果。
1. SAM 2:图像与视频中的任意分割论文:SAM 2: Segment Anything in Images and Videos,作者:Nikhila Ravi等(2025)
背景图像分割是将一幅图像划分为有意义部分的过程。例如,识别照片中哪些像素属于人物、哪些属于汽车、哪些属于背景。这项技术帮助计算机“看见”并理解图像内容。
2023年,Meta AI推出了首个“任意分割模型”(SAM),它可以在仅需极少人工引导(如点击物体)的情况下识别静态图片中的物体。虽然对照片有效,但无法处理视频。
突破点SAM 2将能力扩展至视频,使计算机能够在视频序列中跟踪和识别运动物体。这一进步意义重大,体现在:
能处理视频:不同于此前仅限于静态图片的模型,SAM 2可处理动态内容速度更快:即使在静态图片上,SAM 2的速度也比原模型快6倍更少人力输入:系统所需点击或指令更少,仍能准确识别物体实时处理:全新“流式记忆”设计可实时处理视频流重要意义该技术拥有广泛实用场景:
视频编辑:便于选择和编辑视频中的特定对象自动驾驶汽车:帮助识别和追踪行人、其他车辆及道路特征医学影像:辅助医生分析如内窥镜等手术中的视频增强现实:让应用能够识别并与摄像头视野中的物体互动SAM 2已向研究人员和开发者开放,有助于推动这些领域的进一步发展。
2. 大语言模型微调的学习动态论文:Learning Dynamics of LLM Finetuning,作者:Yi Ren与Danica Sutherland(2025)
背景大型语言模型(LLMs),如ChatGPT,最初通过海量文本学习通用语言模式。之后会进行“微调”——针对特定任务或指令再进行额外训练。
微调虽能提升模型表现,但有时也会引入新问题,比如“幻觉”(生成虚假信息)。此前,研究人员难以准确了解模型在微调过程中内部究竟发生了什么变化。
突破点本论文开发了一种方法,能够追踪LLM在微调期间词语概率的变化,揭示:
幻觉产生原因:有时微调会让模型无意中混淆不同问题的答案“挤压效应”:训练过长甚至会降低正确答案的概率问题解决方法:这些洞见可指导更优的微调流程重要意义这项研究如同为AI训练过程装上了“X光透视”:
更优秀的AI助手:开发者可打造更可靠、错误更少的AI系统更少虚假信息:减少幻觉,AI编造虚假事实的概率降低更高效的训练:了解何时停止训练,节省时间和资源透明性提升:能够解释AI模型为何产生某些行为通过将微调从“黑盒”过程转变为可度量、可理解的流程,研究人员能够构建更值得信赖的AI系统。
3. 一轮训练中的数据Shapley值论文:Data Shapley in One Training Run,作者:Jiachen T. Wang等(2025)
背景AI模型需要通过大量样本学习。例如GPT-4训练用到数万亿词汇,图像生成模型如DALL-E则学习数十亿张图片。但并非所有训练样本都同等重要,有的对AI帮助巨大,有的可能有害或毫无价值。
此前,判断哪些样本最有价值的方法非常低效:需多次用不同数据子集反复训练模型并比较表现。对大模型而言,这种方法几乎不可行。
突破点研究人员提出了“In-Run Data Shapley”方法,可在一次训练过程中度量每个样本对模型的贡献。其特点包括:
训练过程中即可应用:无需多次重复训练几乎不增加计算时间:即使对最大规模模型也适用测量准确:能够识别哪些样本最有用或有害重要意义该突破拥有多项重要应用:
构建更优数据集:识别并剔除误导AI的有害样本理解AI能力来源:追溯哪些类型数据促成了AI的特定能力版权分析:可量化受版权保护内容对AI能力的影响高效训练:聚焦最有价值样本,加快训练进程、提升效果这项技术如同为AI行为提供“显微镜”,有助于我们理解数据对AI的深远影响,尤为关键。
4. 通过推测解码加速级联模型论文:Faster Cascades via Speculative Decoding,作者:Harikrishna Narasimhan等(2025)
背景大型语言模型(如GPT-4)功能强大,但运算速度慢、成本高。每次生成回答时,AI需要逐词预测,每个词都要复杂计算。模型越大,速度越慢、成本越高。
主要有两种提速方式:
级联模型:对于简单问题先用小型、快速模型,复杂问题再调用大模型推测解码:让小模型先预测几个词,再由大模型验证这些预测两种方法各有优缺点。
突破点本论文将两者结合,提出“推测级联”方法,效果更佳:
巧妙协作:小型快速模型一次性提出多个词预测高效验证:大型模型快速核查这些预测是否一致最优决策:系统基于数学保证,决定何时信任小模型,何时调用大模型重要意义此创新带来的好处包括:
更快:响应速度大幅提升更省钱:减少大型模型调用,降低计算成本质量不变:输出质量与原有保持一致该进步有望让强大AI更加普及,降低运营成本、加快响应速度,对AI服务公司和用户都是利好。
5. Transformer学习低敏感度函数论文:Transformers Learn Low Sensitivity Functions: Investigations and Implications,作者:Bhavya Vasudeva等(2025)
背景自2017年提出以来,“Transformer”架构成为现代AI(包括ChatGPT、Gemini、Claude等)的基础。基于Transformer的系统始终优于以往AI方法,但其优势原因并未被完全理解。
AI系统需具备“鲁棒性”——即面对细微输入变化依然表现良好。例如,无论你问“今天天气如何?”还是“今天的天气怎么样?”,AI都应理解你的意图。
突破点本研究发现,Transformer天生能学习“低敏感度函数”——即输入发生微小变化时,输出不会剧烈波动。研究还发现:
天然稳定:与其他架构相比,Transformer对小范围输入变化更不敏感泛化更强:低敏感度有助于模型在新数据上表现优异“更平坦的解”:Transformer训练过程在损失函数空间内找到“平坦谷底”,提升稳定性可量化:研究者开发了衡量敏感度的方法重要意义这一发现揭示了Transformer成功的关键,并带来诸多应用:
构建更优秀AI:设计时可有意识地强化低敏感度特性更可靠:理解该特性有助于打造对输入变化不易出错的AI测试改进:企业可据此检测并发现模型潜在弱点理论价值:为AI架构分析和优化提供新的数学工具有时,理解“为什么有效”与发明本身同样重要,这篇论文为Transformer的成功提供了更深层次解释。
总结2025年初这五项突破性论文展示了机器学习在多个领域的持续进步:
SAM 2让计算机能追踪、识别视频中的物体,而非仅限静态图片LLM微调学习动态揭示AI模型训练中的内部变化一轮训练中的数据Shapley值,提供了衡量训练样本优劣的方法推测解码加速级联模型,让AI语言系统响应更快、资源消耗更少Transformer学习低敏感度函数,解释了Transformer架构为何表现卓越这些进展正共同推动AI系统变得更强大、更高效、更易理解。