华电北风吹
日期:2016-05-24
本文只讨论fMRI,MEG,EEG等认知学科涉及到的数据和问题。
线性回归容易因为过拟合而出现高方差,因此为了控制模型复杂度往往在线性回归的时候添加很多正则项,众所周知的就有
一、多任务学习的提出
在多任务学习中,每一个任务下数据特征的维数相等,并且对应于相同的意义。
基于
其中使用的目标函数表达式为
其中
二、多任务学习之任务间正则化约束
考虑到不同任务间的数据表示的是同一个状态,Inter-modality relationship constrained multi-modality multi-task feature selection for Alzheimer’s Disease and mild cognitive impairment identification这篇文章提出了对任务间的特征进行流形相似度约束,即利用当前该任务的线性回归权重
再加上多任务学习的约束条件,这篇文章的总的约束目标函数就是
其中
三、多任务学习之样本间正则化约束
以往的的话如果仅仅有一个任务下采集到的数据,我们往往对单个任务下的数据建立分类模型,Manifold regularized multitask feature learning for multimodality disease classification这篇文章与上一篇类似,利用对应任务下线性回归的参数
并且公式(3-1)等价于
其中如果
其中
这样在结合多任务学习的经典公式(1-1)就得到这篇文章里面的目标约公式了
这篇文章在到这儿以后并没有结束,而是基于公式(3-3)的几何意义,将其扩展到了半正定的情况。其中,修改后的
对角矩阵变为了有标签的为1,无标签的为0.
四、多任务学习的分类器—多核学习
对于多任务数据,可以利用SVM对不同的任务分别建立核函数然后进行分类,这个就不再说了,具体可以参考我的SVM相关博客,也可以参考最后一篇参考论文。
参考论文:
1. Multi-task feature learning via efficient l2,1-norm minimization
2. Inter-modality relationship constrained multi-modality multi-task feature selection for Alzheimer’s Disease and mild cognitive impairment identification
3. Manifold regularized multitask feature learning for multimodality disease classification
4. Ensemble sparse classification of Alzheimer’s disease