在深度学习以及自然语言处理的领域中,常见的微调方法主要包含以下几种类型:
Fine-tuning(全参数微调):作为最为传统的微调方式,其操作涉及对预训练模型里的所有参数进行更新,以此来适配特定的任务。该方法通常能够获取最佳性能,不过计算成本相对较高。 Prompt-tuning(提示微调):此方法是通过精心设计特定的输入提示(prompts),而非更改模型的权重,进而实现对下游任务的适配。它使得模型能够在计算成本较低的情况下,适应各类不同的任务。 Parameter-efficient fine-tuning(参数高效微调):这一系列方法的核心在于仅对模型参数的一个子集或者新添加的一组参数展开训练,以此减少所需的参数数量以及计算资源。对于资源受限的环境而言,这些技术意义重大。 Adapter Training(适配器训练):适配器属于添加到预训练模型中的小型神经网络,专门用于特定任务的微调工作。这些适配器仅仅占据原始模型大小的极小一部分,从而使得训练速度更快,同时内存需求也更低。 Progressive Shrinking(渐进收缩):该技术是在微调期间,逐步缩小预训练模型的规模,进而生成相较于从头开始训练的模型性能更为出色的小型模型。 Prefix Tuning(前缀微调):主要涉及对特定任务的连续提示进行学习,并且在推理过程中将其添加至输入之前。通过对这个连续提示加以优化,模型便能够在不修改底层模型参数的前提下,适应特定任务。 P-Tuning:主要是对可学习的、被称为“提示记号”的参数展开训练,这些参数需要与输入序列相连接。这些提示记号具有任务特异性,在微调过程中进行优化,如此一来,模型便能够在保持原始模型参数不变的情况下,在新任务上有着良好的表现。