【机器学习-斯坦福】学习笔记18——线性判别分析(Linear Discriminant Analysis)(一)_拟合判别分析分类器-程序员宅基地

技术标签: 算法  机器学习  计算机视觉  优化  迭代  

1. 问题

     之前我们讨论的PCA、ICA也好,对样本数据来言,可以是没有类别标签y的。回想我们做回归时,如果特征太多,那么会产生不相关特征引入、过度拟合等问题。我们可以使用PCA来降维,但PCA没有将类别标签考虑进去,属于无监督的。

     比如回到上次提出的文档中含有“learn”和“study”的问题,使用PCA后,也许可以将这两个特征合并为一个,降了维度。但假设我们的类别标签y是判断这篇文章的topic是不是有关学习方面的。那么这两个特征对y几乎没什么影响,完全可以去除。

     再举一个例子,假设我们对一张100*100像素的图片做人脸识别,每个像素是一个特征,那么会有10000个特征,而对应的类别标签y仅仅是0/1值,1代表是人脸。这么多特征不仅训练复杂,而且不必要特征对结果会带来不可预知的影响,但我们想得到降维后的一些最佳特征(与y关系最密切的),怎么办呢?

2. 线性判别分析(二类情况)

     回顾我们之前的logistic回归方法,给定m个n维特征的训练样例clip_image002(i从1到m),每个clip_image004对应一个类标签clip_image006。我们就是要学习出参数clip_image008,使得clip_image010(g是sigmoid函数)。

     现在只考虑二值分类情况,也就是y=1或者y=0。

     为了方便表示,我们先换符号重新定义问题,给定特征为d维的N个样例,clip_image012,其中有clip_image014个样例属于类别clip_image016,另外clip_image018个样例属于类别clip_image020

     现在我们觉得原始特征数太多,想将d维特征降到只有一维,而又要保证类别能够“清晰”地反映在低维数据上,也就是这一维就能决定每个样例的类别。

     我们将这个最佳的向量称为w(d维),那么样例x(d维)到w上的投影可以用下式来计算

     clip_image022

     这里得到的y值不是0/1值,而是x投影到直线上的点到原点的距离。

     当x是二维的,我们就是要找一条直线(方向为w)来做投影,然后寻找最能使样本点分离的直线。如下图:

     clip_image024

     从直观上来看,右图比较好,可以很好地将不同类别的样本点分离。

     接下来我们从定量的角度来找到这个最佳的w。

     首先我们寻找每类样例的均值(中心点),这里i只有两个

     clip_image026

     由于x到w投影后的样本点均值为

     clip_image028

     由此可知,投影后的的均值也就是样本中心点的投影。

     什么是最佳的直线(w)呢?我们首先发现,能够使投影后的两类样本中心点尽量分离的直线是好的直线,定量表示就是:

     clip_image030

     J(w)越大越好。

     但是只考虑J(w)行不行呢?不行,看下图

     clip_image031

     样本点均匀分布在椭圆里,投影到横轴x1上时能够获得更大的中心点间距J(w),但是由于有重叠,x1不能分离样本点。投影到纵轴x2上,虽然J(w)较小,但是能够分离样本点。因此我们还需要考虑样本点之间的方差,方差越大,样本点越难以分离。

     我们使用另外一个度量值,称作散列值(scatter),对投影后的类求散列值,如下

     clip_image033

     从公式中可以看出,只是少除以样本数量的方差值,散列值的几何意义是样本点的密集程度,值越大,越分散,反之,越集中。

     而我们想要的投影后的样本点的样子是:不同类别的样本点越分开越好,同类的越聚集越好,也就是均值差越大越好,散列值越小越好。正好,我们可以使用J(w)和S来度量,最终的度量公式是

     clip_image035

     接下来的事就比较明显了,我们只需寻找使J(w)最大的w即可。

     先把散列值公式展开

     clip_image037

     我们定义上式中中间那部分

     clip_image039

     这个公式的样子不就是少除以样例数的协方差矩阵么,称为散列矩阵(scatter matrices)

     我们继续定义

     clip_image041

     clip_image043称为Within-class scatter matrix。

     那么回到上面clip_image045的公式,使用clip_image047替换中间部分,得

     clip_image049

     clip_image051

     然后,我们展开分子

     clip_image052

     clip_image054称为Between-class scatter,是两个向量的外积,虽然是个矩阵,但秩为1。

     那么J(w)最终可以表示为

     clip_image056

     在我们求导之前,需要对分母进行归一化,因为不做归一的话,w扩大任何倍,都成立,我们就无法确定w。因此我们打算令clip_image058,那么加入拉格朗日乘子后,求导

     clip_image059

     其中用到了矩阵微积分,求导时可以简单地把clip_image061当做clip_image063看待。

     如果clip_image043[1]可逆,那么将求导后的结果两边都乘以clip_image065,得

     clip_image066

     这个可喜的结果就是w就是矩阵clip_image068的特征向量了。

     这个公式称为Fisher linear discrimination。

     等等,让我们再观察一下,发现前面clip_image070的公式

     clip_image072

     那么

     clip_image074

     代入最后的特征值公式得

     clip_image076

     由于对w扩大缩小任何倍不影响结果,因此可以约去两边的未知常数clip_image078clip_image080,得到

     clip_image082

     至此,我们只需要求出原始样本的均值和方差就可以求出最佳的方向w,这就是Fisher于1936年提出的线性判别分析。

     看上面二维样本的投影结果图:

     clip_image083

3. 线性判别分析(多类情况)

     前面是针对只有两个类的情况,假设类别变成多个了,那么要怎么改变,才能保证投影后类别能够分离呢?

我们之前讨论的是如何将d维降到一维,现在类别多了,一维可能已经不能满足要求。假设我们有C个类别,需要K维向量(或者叫做基向量)来做投影。

     将这K维向量表示为clip_image085

     我们将样本点在这K维向量投影后结果表示为clip_image087,有以下公式成立

     clip_image089

     clip_image091

     为了像上节一样度量J(w),我们打算仍然从类间散列度和类内散列度来考虑。

     当样本是二维时,我们从几何意义上考虑:

     clip_image092

     其中clip_image094clip_image043[2]与上节的意义一样,clip_image096是类别1里的样本点相对于该类中心点clip_image098的散列程度。clip_image100变成类别1中心点相对于样本中心点clip_image102的协方差矩阵,即类1相对于clip_image102[1]的散列程度。

     clip_image043[3]

     clip_image104

     clip_image106的计算公式不变,仍然类似于类内部样本点的协方差矩阵

     clip_image108

     clip_image054[1]需要变,原来度量的是两个均值点的散列情况,现在度量的是每类均值点相对于样本中心的散列情况。类似于将clip_image094[1]看作样本点,clip_image102[2]是均值的协方差矩阵,如果某类里面的样本点较多,那么其权重稍大,权重用Ni/N表示,但由于J(w)对倍数不敏感,因此使用Ni。

     clip_image110

     其中

     clip_image112

     clip_image102[3]是所有样本的均值。

     上面讨论的都是在投影前的公式变化,但真正的J(w)的分子分母都是在投影后计算的。下面我们看样本点投影后的公式改变:

     这两个是第i类样本点在某基向量上投影后的均值计算公式。

     clip_image114

     clip_image116

     下面两个是在某基向量上投影后的clip_image043[4]clip_image070[1]

     clip_image118

     clip_image120

     其实就是将clip_image102[4]换成了clip_image122

     综合各个投影向量(w)上的clip_image124clip_image126,更新这两个参数,得到

     clip_image128

     clip_image130

     W是基向量矩阵,clip_image124[1]是投影后的各个类内部的散列矩阵之和,clip_image126[1]是投影后各个类中心相对于全样本中心投影的散列矩阵之和。

     回想我们上节的公式J(w),分子是两类中心距,分母是每个类自己的散列度。现在投影方向是多维了(好几条直线),分子需要做一些改变,我们不是求两两样本中心距之和(这个对描述类别间的分散程度没有用),而是求每类中心相对于全样本中心的散列度之和。

     然而,最后的J(w)的形式是

     clip_image132

     由于我们得到的分子分母都是散列矩阵,要将矩阵变成实数,需要取行列式。又因为行列式的值实际上是矩阵特征值的积,一个特征值可以表示在该特征向量上的发散程度。因此我们使用行列式来计算(此处我感觉有点牵强,道理不是那么有说服力)。

     整个问题又回归为求J(w)的最大值了,我们固定分母为1,然后求导,得出最后结果(我翻查了很多讲义和文章,没有找到求导的过程)

     clip_image134

     与上节得出的结论一样

     clip_image136

     最后还归结到了求矩阵的特征值上来了。首先求出clip_image138的特征值,然后取前K个特征向量组成W矩阵即可。

     注意:由于clip_image070[2]中的clip_image140 秩为1,因此clip_image070[3]的秩至多为C(矩阵的秩小于等于各个相加矩阵的秩的和)。由于知道了前C-1个clip_image094[2]后,最后一个clip_image142可以有前面的clip_image094[3]来线性表示,因此clip_image070[4]的秩至多为C-1。那么K最大为C-1,即特征向量最多有C-1个。特征值大的对应的特征向量分割性能最好。

     由于clip_image138[1]不一定是对称阵,因此得到的K个特征向量不一定正交,这也是与PCA不同的地方。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/u012409883/article/details/17091473

智能推荐

在移动硬盘中安装win10和macos双系统-程序员宅基地

文章浏览阅读1.1k次,点赞22次,收藏23次。本文通过在SSD移动硬盘中安装win10和macos双系统,实现操作系统随身携带小慢哥的原创文章,欢迎转载目录 目标 准备工作 Step1. 清空分区,转换为GPT Step2. 安装win10 Step3. 压缩win10分区容量 Step4. 创建2个分区 Step5. 将bootcamp驱动放置到exFAT分区中 Step6. 将macos分区..._mac移动硬盘装双机系统

TransmittableThreadLocal解决线程池本地变量问题,原来我一直理解错了-程序员宅基地

文章浏览阅读14次。theme: cyanosishighlight: a11y-dark前言自从上次TransmittableThreadLocal框架作者评论我之后,我重新去看了下源码,终于在这个周天,我才把TransmittableThreadLocal解决线程池变量丢失的问题搞明白,而且发现我之前的认识有问题,久久孩子我之前是觉得,InheritableThreadLocal解决父子线...

Exchange 2016部署实施案例篇-03.Exchange部署篇(上)-程序员宅基地

文章浏览阅读366次。  距离上一篇《Exchange 2016部署实施案例篇-02.活动目录部署篇》博文更新已经过去快一周了,最近一直在忙项目上的事情和软考,整的真心有点身心俱疲啊,最近看了下上一篇博文不知道为什么访问量一直上不去,真心有点心寒啊。希望大家能多多提出宝贵意见,看看如何能让访问量上去。  废话就不多说了,开始今天的话题,Exchange的部署篇,我原定计划是把部署篇分上、下2个篇幅来写的,但最近发现好..._解决exchange2016部署先决条件

[译]使用MVI打造响应式APP(四):独立性UI组件-程序员宅基地

文章浏览阅读130次。原文:REACTIVE APPS WITH MODEL-VIEW-INTENT - PART4 - INDEPENDENT UI COMPONENTS作者:Hannes Dorfmann译者:却把清梅嗅这篇博客中,我们将针对如何 如何构建独立组件 进行探讨,我将阐述为什么在我看来 父子关系会导致坏味道的代码,以及为何这种关系是没有意义的。有这样一个问题时不时涌现在我的脑海中—— MVI...

tensorflow经过卷积及池化层后特征图的大小计算_池化层后特征图尺寸-程序员宅基地

文章浏览阅读662次。https://blog.csdn.net/qq_32466233/article/details/81075288_池化层后特征图尺寸

使用vue-echarts异步数据加载,不能重新渲染页面问题。_vue echart初始化渲染过后无法重新渲染-程序员宅基地

文章浏览阅读3.3k次。一、问题说明我是用的是官方示例中的这个饼状图。结果在应用到项目中后发现利用axios请求到的数据无法渲染到页面中去。并且其中value值已经改变。二、解决办法用$set改变value的值,并且重新绘制一遍表格。$set是全局 Vue.set 的别名。$set用法:向响应式对象中添加一个属性,并确保这个新属性同样是响应式的,且触发视图更新。它必须用于向响应式对象上添加新属性,因为..._vue echart初始化渲染过后无法重新渲染

随便推点

Dev-C++ “to_string is not a member of std” error- 已解决_devc++ [error] 'to_string' is not a member of 'std-程序员宅基地

文章浏览阅读3.7k次。今天在用Dev-C++ 的时候遇到一个错误“to_string is not a member of std” error解决方法:设置编译语言为ISO C++11 在菜单栏的Tool -> Compiler Option_devc++ [error] 'to_string' is not a member of 'std

python的10款最好的IDE_pydea兼容的-程序员宅基地

文章浏览阅读1.1k次。Python 非常易学,强大的编程语言。Python 包括高效高级的数据结构,提供简单且高效的面向对象编程。Python 的学习过程少不了 IDE 或者代码编辑器,或者集成的开发编辑器(IDE)。这些 Python 开发工具帮助开发者加快使用 Python 开发的速度,提高效率。高效的代码编辑器或者 IDE 应该会提供插件,工具等能帮助开发者高效开发的特性。这篇文章收集了一些对开发者非常有_pydea兼容的

python translate函数_Python:内置函数makestrans()、translate()-程序员宅基地

文章浏览阅读287次。一、makestrans()格式: str.maketrans(intab,outtab);功能:用于创建字符映射的转换表,对于接受两个参数的最简单的调用方式,第一个参数是字符串,表示需要转换的字符,第二个参数也是字符串表示转换的目标。注:两个字符串的长度必须相同,为一一对应的关系。注:Python3.6中已经没有string.maketrans()了,取而代之的是内建函数:bytearray...._python maketrance

Set集合详解-程序员宅基地

文章浏览阅读5.7k次,点赞9次,收藏14次。set集合的简介,它的特点和遍历方式。介绍了HashSet重复元素存储底层原理,LinkedHashSet,TreeSet排序方法,SortedSet获取集合值的方法_set集合

详解智慧城市排水管理系统整体方案_污水处理智慧管理系统案列-程序员宅基地

文章浏览阅读3.6k次,点赞3次,收藏29次。随着城市规模的不断扩大和现代化程度的日益提高,城市排水管网越来越复杂,一些城市相继发生大雨内涝、管线泄漏爆炸、路面塌陷等事件,严重影响了人民群众生命财产安全和城市运行秩序。因此,摸清排水管网设施资产家底、建立排水管网地理信息系统,用现代化的技术手段对排水系统进行科学管理显得迫在眉睫。以时空信息为基础,充分利用感知监测网、物联网、云计算、移动互联网、工业控制和水力模型等新一代信息技术,全方位感..._污水处理智慧管理系统案列

详解NTFS文件系统_ntfs文件系统中,磁盘上的所有数据包括源文件都是以什么的形式存储-程序员宅基地

文章浏览阅读5.7k次,点赞4次,收藏13次。上篇在详解FAT32文件系统中介绍了FAT32文件系统存储数据的原理,这篇就来介绍下NTFS文件系统。NTFS、用过Windows系统的人都知道,它是一个很强大的文件系统,支持的功能很多,存储的原理也很复杂。目前绝大多数Windows用户都是使用NTFS文件系统,它主要以安全性和稳定性而闻名,下面是它的一些主要特点。安全性高:NTFS支持基于文件或目录的ACL,并且支持加密文件系统(E_ntfs文件系统中,磁盘上的所有数据包括源文件都是以什么的形式存储

推荐文章

热门文章

相关标签