前言
什么是模型微调
想象一下,你正在学习如何弹奏一首钢琴曲目。你已经学会了一些基本的钢琴技巧,但你想要更进一步,尝试演奏一首特定的曲目。这时,你会选择一首你感兴趣的曲目,并开始深度练习。
Fine-tuning(微调)在机器学习中也是类似的概念。当我们使用预先训练好的模型(预训练Pre-training
)来解决一个特定的任务时,有时我们需要对这个模型进行微调。这意味着我们会在已经训练好的模型的基础上进行进一步的训练,以使其更适应我们的特定任务。
在微调过程中,会使用一小部分与任务相关的数据来训练模型。可以冻结模型的一部分或全部层,只对最后几层进行训练。这样做的目的是保留模型之前学到的通用特征,同时允许模型根据新数据进行适应和调整。
为什么要模型微调
一方面,为了满足领域特定的需求。通过微调,可以根据特定领域的需求来调整模型,特别适合搭建私有知识库。
另一方面,考虑到成本因素,预训练最少也需要上百条A100显卡,而微调单台显卡就能搞定
当前有哪些主流的微调方法
当前主流的LLM模型微调方法有prefix-tuning,p-tuning和lora等方法,其中LORA更注重对特征的解释和理解,而P-Tune更注重对模型参数的微调
官方网址: