秒懂

匹配追踪算法(MP)

为了了解OMP我们先从MP开始说起。

匹配追踪最早是时频分析的分析工具,目的是要将一已知讯号拆解成由许多被称作为原子讯号的加权总和,而且企图找到与原来讯号最接近的解。

在机器学习领域,我们可以将它抽象为 X ω = Y X\omega=Y Xω=Y,其中 X X X是我们已知的向量, Y Y Y是我们要去拟合或者称为追踪的向量, MP算法的目的就是找到公式中的 ω \omega ω。MP算法采用逐步迭代的方式,每一步寻找到 X X X中与 Y Y Y内积最大的向量,将其从 Y Y Y中剔除(相减)得到 Y ′ Y' Y(被称为残差),这样一步步迭代下去就能找到较优的近似解。

举个例子,我想要使用 x 1 = ( − 1 , 1 ) x_1=(-1,1) x1=(1,1) x 2 = ( 1 , 0 ) x_2=(1,0) x2=(1,0)两个向量来拟合向量 y = ( 1 , 1 ) y=(1,1) y=(1,1),如果让我们口算,我们可以很容易地计算出 1 x 1 + 2 x 2 = y 1x_1+2x_2=y 1x1+2x2=y,那么使用MP算法呢?

  • 第一步迭代:
    计算 x 1 x_1 x1 x 2 x_2 x2 y y y的内积 m 1 = < x 1 , y > = 0 m_1=<x_1,y>=0 m1=<x1,y>=0 m 2 = < x 2 , y > = 1 m_2=<x_2,y>=1 m2=<x2,y>=1
    比较绝对值发现 x 2 x_2 x2 y y y的影响更大,因此 y ′ = y − m 2 x 2 = ( 0 , 1 ) y'=y-m_2x_2=(0,1) y=ym2x2=(0,1),记录 ω = ( _ , 1 ) \omega=(\_,1) ω=(_,1)

  • 第二步迭代:
    计算 x 1 x_1 x1 x 2 x_2 x2 y ′ y' y的内积 m 1 = < x 1 , y ′ > = 1 m_1=<x_1,y'>=1 m1=<x1,y>=1 m 2 = < x 2 , y ′ > = 0 m_2=<x_2,y'>=0 m2=<x2,y>=0
    比较绝对值发现 x 1 x_1 x1 y ′ y' y的影响更大,因此 y ′ ′ = y ′ − m 1 x 1 = ( 1 , 0 ) y''=y'-m_1x_1=(1,0) y=ym1x1=(1,0),记录 ω = ( 1 , 1 ) \omega=(1,1) ω=(1,1)

  • 第三步迭代:
    计算 x 1 x_1 x1 x 2 x_2 x2 y ′ y' y的内积 m 1 = < x 1 , y ′ ′ > = − 1 m_1=<x_1,y''>=-1 m1=<x1,y>=1 m 2 = < x 2 , y ′ ′ > = 1 m_2=<x_2,y''>=1 m2=<x2,y>=1
    比较绝对值发现 x 1 x_1 x1 x 2 x_2 x2 y ′ y' y的影响一样大,因此随便选一个 y ′ ′ ′ = y ′ ′ − m 2 x 2 = ( 0 , 0 ) y'''=y''-m_2x_2=(0,0) y=ym2x2=(0,0),记录 ω = ( 1 , 2 ) \omega=(1,2) ω=(1,2),得到正确答案。

but!如果随机选选到了 x 1 x_1 x1怎么办,这就可能导致出现迭代时间变长、收敛速度变慢甚至死循环等问题。于是引出正交匹配追踪算法。

正交匹配追踪算法

正交匹配追踪算法是匹配追踪算法的升级版,每一步迭代时保证剔除后的 Y ′ Y' Y与被剔除的向量正交,这样之后的迭代就不需要再计算已经剔除掉的向量,极大地减少了时间开销。
例如在上一节的问题中,使用 x 1 = ( − 1 , 1 ) x_1=(-1,1) x1=(1,1) x 2 = ( 1 , 0 ) x_2=(1,0) x2=(1,0)两个向量来拟合向量 y = ( 1 , 1 ) y=(1,1) y=(1,1)

  • 第一步迭代:
    计算 x 1 x_1 x1 x 2 x_2 x2 y y y的内积 m 1 = < x 1 , y > = 0 m_1=<x_1,y>=0 m1=<x1,y>=0 m 2 = < x 2 , y > = 1 m_2=<x_2,y>=1 m2=<x2,y>=1
    比较绝对值发现 x 2 x_2 x2 y y y的影响更大,因此 y ′ = y − k 1 x 2 = ( 1 − k 1 , 1 )    s . t .    y ′ ⊥ x 2 y'=y-k_1x_2=(1-k_1,1)\,\,s.t. \,\,y'\perp x_2 y=yk1x2=(1k1,1)s.t.yx2,解得 k 1 = 2 , y ′ = ( − 1 , 1 ) k_1=2, y'=(-1,1) k1=2,y=(1,1),记录 ω = ( _ , 2 ) \omega=(\_,2) ω=(_,2)

  • 第二步迭代:
    由于正交性,不需要再考虑 x 2 x_2 x2,因此 y ′ ′ = y ′ − k 2 x 1 = ( − 1 − k 2 , 1 − k 2 )    s . t .    y ′ ⊥ x 1 ∧ y ′ ⊥ x 2 y''=y'-k_2x_1=(-1-k_2,1-k_2)\,\,s.t. \,\,y'\perp x_1 \wedge y'\perp x_2 y=yk2x1=(1k2,1k2)s.t.yx1yx2,解得 k 2 = 1 k_2=1 k2=1记录 ω = ( 1 , 1 ) \omega=(1,1) ω=(1,1),得到正确答案。

正交匹配追踪算法的优势可见一斑。

详解

算法流程

简单介绍已经说清楚了,即通过 X ω = Y X\omega=Y Xω=Y中已知的 X X X Y Y Y来求出 ω \omega ω,我们将其拆开来写
ω 1 x 1 + ω 2 x 2 + . . . + ω n x n = y \omega_1x_1+\omega_2x_2 + ...+\omega_nx_n=y ω1x1+ω2x2+...+ωnxn=y

  1. 第一步计算每个向量 x x x y y y的内积,挑选出绝对值最大的设为 x i x_i xi,令 y ′ = y − ω i x i y'=y-\omega_ix_i y=yωixi ω i \omega_i ωi满足 y ′ ⊥ x i y'\perp x_i yxi,将 y y y替换成 y ′ y' y(即令 y = y ′ y=y' y=y)。
  2. 随后,计算除 x i x_i xi之外每个向量 x x x y y y的内积,挑选出绝对值最大的设为 x j x_j xj,令 y ′ = y − ω j x j y'=y-\omega_jx_j y=yωjxj ω j \omega_j ωj满足 y ′ ⊥ x j ∧ y ′ ⊥ x i y'\perp x_j\wedge y'\perp x_i yxjyxi,将 y y y替换成 y ′ y' y
  3. 重复步骤2,值得注意的是,这里的政教关系需要用施密特正交化方法来计算。
  4. 求出的 ω \omega ω就是OMP算法的解。

代码实现

废话不多说,直接上sklearn

from sklearn import linear_model


def data_generate():
	# 这里随机生成了一些数据
    a = [[i + 1, i - 2, i + 4, i - 3] for i in range(5)]
    a.extend([[i - 1, i - 2, i, i] for i in range(5)])
    b = [sum(i) * 2 + 1 for i in a]
    # b = [[i + random.randint(-10, 10) for _ in range(1)] for i in range(5)]
    # b.extend([[i + random.randint(-10, 10) for _ in range(1)] for i in range(10, 15)])
    return a, b


if __name__ == "__main__":
    x, y = data_generate()
    reg = linear_model.OrthogonalMatchingPursuit()
    # 可以和下面这一行的标准线性回归做一个对比
    # reg = linear_model.LinearRegression()
    reg.fit(x, y)
    for i, j in zip(x, y):
        print(i, j)
    print('---------------')
    # 懒得再构造数据了,使用训练集预测一遍,效果。。。一般,主要是因为数据量太少了。
    # 当数据量增加时,OMP可以超过标准线性回归的效果
    print(reg.predict(x))
    print(reg.score(x, y))

算法优劣

通过上文中的介绍可以发现
OMP算法相较于MP算法收敛快,效率高。
作为压缩感知领域的算法,可以应用在回归问题上,效果还不错。

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐