多示例学习(Multiple Instance Learning)和弱监督(weakly supervised)有一定的关系,弱监督weakly supervised有三个含义(或者说三个方向,即三个弱的方面),他的训练数据:

1.弱在缺标签:即标签是不完全的,部分有标签,部分无标签。

2.弱在标签不准确:即部分标签是错的,部分是对的。

3.弱在标签不精确:即标签没有直接打在样本上,而是在一个更高层次上,包标签与样本标签并不不是一个意思。

多示例学习中,我们考虑这样一种训练数据,这个数据是有标记的,标记只有两个类别,正和负。但这一次标记的目标不是一个样本,而是一个数据包(bag)。某一个或者几个数据合在一起叫做一个bag,每个bag有自己的标记。当一个bag的标记为负时,这个bag里面所有样本的标记都是负的。当一个bag的标记为正时,这个bag里面至少有一个样本的标记为正。因此,多示例学习的包也是直接打在包上的,但包上的标签和样本标签是一个意思,只是包上的标签并不一定说明包里的样本全都属于这个类。在多示例学习中,我们的目标是学习得到一个分类器,使得对新输入的样本,可以给出它的正负标记。这样的一类问题就是多示例问题。

多示例问题在实际的应用中还是非常常见的

  1. 比如说,方校长建长城的时候,他要列举一些违禁词汇不让大家搜索,他觉得一个一个输入太麻烦了,于是可以找来一些黄色或者反动的网站,直接作为正样本包:网站中的词汇总有一个是违禁的。然后拿健康向上的人民日报网页作为负样本包:里面的词汇没有一个是违禁的。
  2. 又比如做检测问题,标记训练图片样本的时候需要给出一个矩形框指明目标的位置,有可能标的不够准确,导致不同的样本之间对不齐,这时候可以将标记的矩形框做一些局部扰动得到一些新的矩形框,将它们一起看成一个bag,其中总有一个是最佳的正样本,也就是标记为正。而取一张没有目标的图片,作为负样本包:无论在里面怎么截取图片,都是负样本。

求解方法

关于多示例问题怎么求解,假如说所有的样本标记都已经知道了,那就是一个监督学习的问题了,用SVM,adaboost之类的都可以做。现在的困难是,有很多样本的标记我们不知道。对于负样本包来说就无所谓了,里面每个样本那都是负标记,这个是明确的。问题出在正样本包上面,每个正样本包里只能保证有一个是正样本,其他的是正是负就不知道了,关键是到底是哪个样本是正的呢?这个也是不清楚的。

解决这个问题的方法其实挺直接的:迭代优化(alternative optimization)。也就是说,我们先假设已经知道了所有样本的标记,那么就可以通过某种监督学习的方法得到一个分类模型,通过这个模型我们可以对每个训练样本进行预测,然后更新它们的标记,我们又可以拿这一次新得到的标记重新训练分类模型了。所以整个优化过程分为两部分:监督学习,标记更新。

这里还有一些地方需要注意:

  1. 第一点, 训练监督学习的模型的时候,只从正样本包里挑选被预测的“最像正确”(也就是分类得分最高)的那一个,正样本包里面其他的样本,不管预测出来是正的还是负的都不要了。这是因为,其实多示例的问题也可以描述为,正样本包里面“最正确”的一个样本标记是正的,跟其他样本无关。所以,这种选择策略恰恰是符合问题定义的。(选最容易分类的,因为可能只有一个)
  2. 第二点,如果负样本足够多的话,可以只挑选每个负样本包里面被预测“最像正确"的一个样本作为负样本进行训练,这样子的负样本也叫做hard sample或者most violated sample。实践上来说,它们对于模型快速收敛是最有效的。(选最难分类的,因为所有样本都是负的,并且要使模型能够有区分度,这种观点可以参考支持向量机中的支持向量的观点)

下面给出一个简单的流程图:

多示例学习:

输入:正包,负包

输出: 分类函数 f

将每个标记包中的样本初始化为包的标记,初始化集合U为空,将所有样本加入样本集U

重复下面的过程:

  • 取U中所有样本以及标记训练得到一个分类函数f
  • 利用f预测所有样本的标记
  • 清空U
  • 对于每个正标记包,选取f预测得分最高的样本加入集合U(选最容易分类的一个)
  • 对于每个负标记包,选取f预测得分最高的样本加入集合U(选最难分类的一个或多个)

直到满足结束条件

返回f

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐