1. 概述

Behavior Sequence Transformer(BST)算法是由阿里在2019年提出的算法,应用于淘宝推荐中的ranking阶段。在目前的推荐系统中,主流的深度学习方案,如WDL,并没有充分利用用户的行为序列(User’s Behavior Sequence),在BST算法中,利用Transformer充分挖掘用户的行为序列,实现对用户行为序列的建模。

2. 算法原理

BST算法的模型结构如下图所示:

在这里插入图片描述
在BST模型结构中,主要包括了三个部分:第一,特征的embedding层;第二,用户行为序列的Transformer层;第三,最终的MLP层。

2.1. Embedding层

Embedding层的结构如下所示:

在这里插入图片描述

从上图可以看出,在特征的Embedding层,主要包括三个部分:第一,其他的特征,主要包括用户画像特征,item特征,上下文特征以及交叉特征;第二,用户行为序列特征;第三,目标item的特征。

2.1.1. 其他特征

在其他特征部分,主要包括了用户画像特征,item特征,上下文特征以及交叉特征,具体特征形式在论文中也给出,如下所示:

在这里插入图片描述
将这些特征的embedding向量concat在一起,得到对应的embedding形式。

2.1.2. 用户行为序列和目标item

假设用户 u u u的行为序列为 S ( u ) = { v 1 , v 2 , ⋯   , v n } S\left ( u \right )=\left \{ v_1,v_2,\cdots ,v_n \right \} S(u)={v1,v2,,vn},同时还包括目标item v t v_t vt。对于每一个item(包括行为序列中的item以及目标item),包括两种类别的特征:第一,item的特征,如图中的红色部分;第二,位置特征,如图中的蓝色部分。对于item的特征,文章中指出使用的是item_id和category_id。为了使用Transformer刻画序列的特征,因此需要位置的特征,位置特征的计算方式为:

p o s ( v i ) = t ( v t ) − t ( v i ) pos\left ( v_i \right )=t\left ( v_t \right )-t\left ( v_i \right ) pos(vi)=t(vt)t(vi)

其中, t ( v i ) t\left ( v_i \right ) t(vi)表示item v i v_i vi被点击的时间戳。

将item特征和位置特征concat在一起,得到对应item的embedding表示。

2.2. Transformer层

在Transformer层中使用Multi-Head Attention来学习目标item与用户行为序列中的item之间的相关关系。完整的Transformer指的是基于Attention机制的经典Encoder-Decoder框架,Transformer的框架结构如下图所示:

在这里插入图片描述
而在BST模型中,使用的是多个Multi-Head Attention结构,即Transformer的Encoding部分。Multi-Head Attention和Scaled Dot-Product Attention结构如下图所示:

在这里插入图片描述
其中,Scaled Dot-Product Attention的值为:

A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d ) V Attention\left ( \mathbf{Q},\mathbf{K},\mathbf{V} \right )=softmax\left ( \frac{\mathbf{Q}\mathbf{K}^T}{\sqrt{d}} \right )\mathbf{V} Attention(Q,K,V)=softmax(d QKT)V

其中, Q \mathbf{Q} Q表示的是查询, K \mathbf{K} K V \mathbf{V} V分别表示的是键和值,在BST中, Q \mathbf{Q} Q K \mathbf{K} K V \mathbf{V} V由用户行为序列和目标item的embedding的线性映射得到。

通过将Scaled Dot-Product Attention的结果concat在一起并通过线性变换得到最终的Multi-Head Attention结果:

S = C o n c a t ( h e a d 1 , h e a d 2 , ⋯   , h e a d h ) W H \mathbf{S}=Concat\left ( head_1,head_2,\cdots ,head_h \right )\mathbf{W}^H S=Concat(head1,head2,,headh)WH

其中, h e a d i = A t t e n t i o n ( E W Q , E W K , E W V ) head_i=Attention\left ( \mathbf{EW}^Q,\mathbf{EW}^K,\mathbf{EW}^V \right ) headi=Attention(EWQ,EWK,EWV)。除了上述的Multi-Head Attention部分,在Transformer的Encoding部分,还包括了Point-wise Feed-Forward Networks(FFN)部分,FFN的目的是增加模型的非线性。为了防止模型的过拟合,在self-attention和FFN中都使用dropout和LeakyReLU,最终的self-attention和FFN为:

S ′ = L a y e r N o r m ( S + D r o p o u t ( M H ( S ) ) ) {\mathbf{S}}'=LayerNorm\left ( \mathbf{S}+Dropout\left ( MH\left ( \mathbf{S} \right ) \right ) \right ) S=LayerNorm(S+Dropout(MH(S)))

F = L a y e r N o r m ( S ′ + D r o p o u t ( L e a k y R e L U ( S ′ W ( 1 ) + b ( 1 ) ) W ( 2 ) + b ( 2 ) ) ) \mathbf{F}=LayerNorm\left ( {\mathbf{S}}'+Dropout\left ( LeakyReLU\left ( {\mathbf{S}}'\mathbf{W}^{\left ( 1 \right )}+b^{\left ( 1 \right )} \right )\mathbf{W}^{\left ( 2 \right )}+b^{\left ( 2 \right )} \right ) \right ) F=LayerNorm(S+Dropout(LeakyReLU(SW(1)+b(1))W(2)+b(2)))

通过堆叠多个上述的self-attention block,得到最终的多层结构,通过论文中的实验可知,只需要一层上述结构就能获得最好的结果,其可能的原因是用户行为序列间的依赖关系没有那么强。

2.3. MLP层以及损失函数

最终将其他特征的embedding以及Transformer的结果concat在一起,并通过三层的MLP得到最终的CTR预测。最终的损失函数为:

L = − 1 N ∑ ( x , y ) ∈ D ( y log ⁡    p ( x ) + ( 1 − y ) l o g ( 1 − p ( x ) ) ) L=-\frac{1}{N}\sum _{\left ( x,y \right )\in D}\left ( y\log\; p\left ( x \right ) +\left ( 1-y \right )log\left ( 1-p\left ( x \right ) \right )\right ) L=N1(x,y)D(ylogp(x)+(1y)log(1p(x)))

其中, N N N表示样本个数, D D D表示所有的样本, y ∈ { 0 , 1 } y\in \left \{ 0,1 \right \} y{0,1}表示的是label, p ( x ) p\left ( x \right ) p(x)为模型的输出。

参考文献

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐