预训练模型:BERT
0. BERT总述BERT全称为 Bidirectional Encoder Representation from Transformers(来自 Transformers 的双向编码器表示),是谷歌2018年发表的论文中1,提出的一个面向自然语言处理任务的无监督预训练语言模型。其意义在于:大量无标记数据集中训练得到的深度模型,可以显著提高各项自然语言处理任务的准确率。BERT采用Transfo
0. 引言
BERT全称为 Bidirectional Encoder Representation from Transformers(来自 Transformers 的双向编码器表示),是谷歌2018年发表的论文中1,提出的一个面向自然语言处理任务的无监督预训练语言模型。其意义在于:大量无标记数据集中训练得到的深度模型,可以显著提高各项自然语言处理任务的准确率。
BERT采用Transformer的编码器(Encoder)结构作为特征提取器,并使用与之配套的MLM训练方法,实现输入序列文本的双向编码;与只使用前序文本信息提取语义的单向编码器(如GPT等)相比,BERT具有更强的语义信息提取能力。
1. 预训练任务
BERT的作者认为:使用两个方向(从左至右和从右至左)的单向编码器拼接而成的双向编码器,在性能、参数规模和效率等方面都不如直接使用双向编码器强大;这是 BERT 模型使用 Transformer Encoder 结构作为特征提取器,而不拼接使用两个方向的 Transformer Decoder 结构作为特征提取器的原因。
这也令 BERT 模型不能像 GPT 模型一样,继续使用标准语言模型的训练模式,因此 BERT 模型重新定义了两种模型训练方法(即:预训练任务):MLM 和 NSP。BERT用MLM(Masked Language Model,掩码语言模型)方法训练词的语义理解能力,用NSP(Next Sentence Prediction,下句预测)方法训练句子之间的理解能力,从而更好地支持下游任务。
1.1 MLM
MLM是借鉴完形填空任务和Word2Vec中CBOW算法的思想,而定义的一种模型预训练任务。具体而言,就是随机抽取部分词进行掩码操作(用 ‘<Mask>’ 掩码字符来替换被抽取到的单词),训练BERT模型来正确预测这些被掩码词,且以 ∑ P ( w i ∣ w 1 , ⋯ , w i − 1 , w i + 1 , ⋯ , w n ) \sum P(w_i|w_1, \cdots, w_{i-1}, w_{i+1}, \cdots, w_n) ∑P(wi∣w1,⋯,wi−1,wi+1,⋯,wn) 为目标函数来优化模型参数(仅计算被掩码单词的交叉熵之和,将其作为损失函数),如图1所示。
在模型微调训练或模型推理阶段,输入的文本序列中不再含有掩码标记,因此不可忽视的是:MLM训练方法的训练集与测试集数据之间,存在不可避免的系统性数据分布差异,这会产生训练与预测数据偏差导致的性能损失。为改善这一弊端,BERT并不总是用掩码标记替换训练样本中被选定的掩码词,而是在每样本随机抽取15%的掩码词后,对80%的样本用掩码标记 ‘<Mask>’ 替换掩码词,对另外10%的样本不做任何替换,对最后10%的样本从模型词表中随机抽取单词来替换掩码词。
其中,对一小部分掩码词不做替换,是为了缓解训练文本与预测文本的偏差带来的性能损失。此外,对另一小部分掩码词做随机替换,是为了让BERT学会根据上下文信息自动纠错;假设不随机替换的一小部分训练样本,BERT遇到非掩码标记的词时,直接输出该词即可得到最优交叉熵,而加入随机替换样本则强制模型综合上下文信息整体推测预测词,避免模型通过“偷懒”的方式获得最优目标函数的隐患;简而言之,这增加了BERT模型的鲁棒性和对上下文信息的提取能力。
且上述这四个概率分配比例是超参数,其取值由BERT在预训练过程中尝试过各种配置比例后,通过对比测试结果得到最优参数值。
1.2 NSP
很多自然语言处理的下游任务(如问答和自然语言推断等)都基于两个句子做逻辑推理,而语言模型并不具备直接捕获句子间语义联系的能力(该能力由训练方法和目标函数的特性决定),BERT采用NSP训练方法,使用模型学会捕捉句子间的语义联系。
具体而言:模型的输入语句由两个句子组成,其中有50%的概率将语义连贯的两个连续句子作为训练样本(连续句对应取自篇章级别的语料,以确保前后语句的语义强相关),另有50%的概率将完全随机抽取的两个句子作为训练样本,模型要根据输入的两个句子,判断它们是否属于真实的连续句对,如图1所示。
其中,[SEP] 标签表示分隔符,用于区分两个句子,而 [CLS] 标签对应的输出向量作为句子整体的语义表示,用于类别预测。若结果为1,则表示输入语句为真实的连续句子,其上下文有语义联系;若结果为0,则表示输入语句为随机组合的句子,上下文并没有语义联系。
2. 模型结构
BERT模型在继承 Transformer 编码器(Encoder)结构的同时,也根据自身任务需求,对其输入层结构做了相应改进。一方面为适应NSP任务,BERT模型的输入层结构在原有静态词向量编码(Token Embeddings)和位置编码(Position Embeddings)的基础上,增加了语句分割编码(Segment Embeddings),该层的输出结果是三种 Embedding 编码之和;另一方面,BERT模型的位置编码方法,由原来 Transform 模型的三角函数编码,改变为由可学习的模型参数编码。如下图所示:
3. 下游任务
BERT模型不具备文本生成功能,它能支持的下游任务可分为四类:单句标注、单句分类、句对分类、文本问答。其代码实现方式是:在BERT预训练模型的基础上,添加一个配合具体任务的输出层即可。读取BERT预训练模型的代码实现如下:
## Tensorflow实现
from transformers.models.bert import TFBertModel
tf_bert_layer = TFBertModel.from_pretrained(
"bert-base-chinese"
, cache_dir='../Models/bert-base-chinese' # 本地存储目录
).bert
## Pytorch实现
from transformers.models.bert import BertModel
bert_layer = BertModel.from_pretrained(
"bert-base-chinese"
, cache_dir='../Models/bert-base-chinese' # 本地存储目录
).bert
3.1 句对分类
给定两个句子,判断它们的关系,统称为句对分类。常见的任务形式如下:
- 多类型自然语言推理(Multi-Genre Natural Language Inference,MNLI),给定句对,判断它们是否为蕴含、矛盾或中立关系,属于多分类任务;
- Quora问答(Quora Question Pairs,QQP),给定句对,判断它们是否相似,属于二分类任务;
- 问答自然语言推理(Question Natural Language Inference,QNLI),给定句对,判断后者是否是对前者的回答,属于二分类任务;
- 语义相似度判断(Semantic Textual Similarity,STS-B),给定句对,判断它们的相似程度,属于多分类任务;
- 语义一致性判别(Microsoft Research Paraphrase Corpus,MRPC),给定句对,判断语义是否一致,属于二分类任务;
- 文本蕴含判别(Recognizing Texual Entailment,RTE),给定句对,判断两者是否具有蕴含关系,属于二分类任务;
- 最佳候选语句判定(Situation With Adversarial Generations,SWAG),给定主句 A A A 和多个候选从句 B B B,根据语义连贯性选出最优的从句 B i B_i Bi,属于多分类问题。
综上来看,句对分类任务均可归属于二分类或多分类问题,因此在BERT模型句首标签 [CLS] 的输出特征向量后接一个全连接层(该层输出维度与类别数目一致,且激活函数在二分类时为 Sigmoid,在多分类时为 Softmax),即可适应句对分类下游任务。其代码实现如下:
## Tensorflow实现
class TFBertForSequenceClassification(tf.keras.Model):
def __init__(self, num_labels, *inputs, **kwargs):
super().__init__()
self.num_labels = num_labels
#
self.bert = tf_bert_layer
self.classifier = tf.keras.layers.Dense(
num_labels
, activation='sigmoid' if self.num_labels==2 else 'softmax'
, name='classifier'
)
def call(self, inputs):
CLS_hidden = self.bert(inputs)['pooler_output']
outputs = self.classifier(CLS_hidden)
return outputs
## Pytorch实现
3.2 单句分类
给定一个句子,判断该句子的类别,统称为单句分类任务。常见的任务形式有:
- 单句情感判定(Standford Sentiment Treebank,SST-2,斯坦福情感语料库),给定单句,判断句子的情感类别,属于二分类任务。
- 语义连贯性判定(Corpus of Linguistic Acceptability,CoLA,文本连贯性语料库),给定单句,判断是否为语义连贯的句子,属于二分类任务。
综合来看,单句分类任务就是将模型输入改写为一个单句且保留句首标签[CLS],模型预测使用句首标签[CLS]的输出特征作为分类标签,计算分类标签与真实标签的交叉熵,将其作为优化目标,在任务数据上进行微调训练。其代码实现如下:
## Tensorflow实现
class TFBertForSequenceClassification(tf.keras.Model):
def __init__(self, num_labels, *inputs, **kwargs):
super().__init__()
self.num_labels = num_labels
#
self.bert = tf_bert_layer
self.classifier = tf.keras.layers.Dense(
num_labels
, activation='sigmoid' if self.num_labels==2 else 'softmax'
, name='classifier'
)
def call(self, inputs):
CLS_hidden = self.bert(inputs)['pooler_output']
outputs = self.classifier(CLS_hidden)
return outputs
## Pytorch实现
3.3 单句标注
给定一个句子,标注每个词的标签,称为单句标注任务。常见的任务形式有:
- 词性标注
- 命名实体识别
综合来看,进行单句标注任务时,需要在每个词的最终语义特征向量之后添加全连接层且激活函数为Softmax或Sigmoid,即可得到各token类别标签的概率分布。其代码实现如下:
## Tensorflow实现
class TFBertForTokenClassification(tf.keras.Model):
def __init__(self, num_labels, *inputs, **kwargs):
super().__init__()
self.num_labels = num_labels
#
self.bert = tf_bert_layer
self.classifier = tf.keras.layers.Dense(
num_labels
, activation='sigmoid' if self.num_labels==2 else 'softmax'
, name='classifier'
)
def call(self, inputs):
last_hidden= self.bert(inputs)['last_hidden_state']
outputs = self.classifier(last_hidden)
return outputs
## Pytorch实现
3.4 文本问答
## Tensorflow实现
## Pytorch实现
4. 微调训练
实战中,BERT模型的微调训练策略十分丰富,受限于篇幅,具体请详见作为文章:预训练模型:BERT 模型的微调(fine-tuning)实战策略
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)