LDA分析、作图及添加置信-ggord

线性判别分析LDA

线性判别分析,英文Linear Discriminant Analysis, 以下简称LDA。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,在生物学大数据研究中同样也有广泛应用,比如前几个月的Sicence封面文章哈扎人菌群研究就使了此方法,因此我们有必要了解下它的算法原理[1]。

LDA的思想

LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。

可能还是有点抽象,我们先看看最简单的情况。假设我们有两类数据 分别为红色和蓝色,如下图所示,这些数据特征是二维的,我们希望将这些数据投影到一维的一条直线,让每一种类别数据的投影点尽可能的接近,而红色和蓝色数据中心之间的距离尽可能的大。

LDA分析、作图及添加置信-ggord-图片1

图1. LDA排序原理模式

上图提供了两种投影方式,哪一种能更好的满足我们的标准呢?从直观上可以看出,右图要比左图的投影效果好,因为右图的黑色数据和蓝色数据各个较为集中,且类别之间的距离明显。左图则在边界处数据混杂。以上就是LDA的主要思想了,当然在实际应用中,我们的数据是多个类别的,我们的原始数据一般也是超过二维的,投影后的也一般不是直线,而是一个低维的超平面[1]。

更多算法和原理解析,可阅读参考文献[1]。

LDA排序和ggord添加椭圆置信区间

  1. # Installation
  2. devtools::install_github('fawda123/ggord')
  3.  
  4. # 加载lda包
  5. library(MASS)
  6.  
  7. # 查看测试数据
  8. head(iris)
  9.  
  10. # 按物种分组LDA排序
  11. ord <- lda(Species ~ ., iris, prior = rep(1, 3)/3)
  12.  
  13. # 展示LDA分析
  14. library(ggord)
  15. p <- ggord(ord, iris$Species)
  16. p

LDA分析、作图及添加置信-ggord-图片2

图2. 以鸢尾花尺寸属性按品种分组上色,并添加半透明色0.95置信背景椭圆。箭头为花尺寸各属性与LD1/2轴的相关和贡献[4]。

  1. # 计算置信椭圆函数
  2.  
  3. get_lda_ell <- function(ord_in, grp_in, ellipse_pro = 0.97){
  4. ## adapted from https://github.com/fawda123/ggord/blob/master/R/ggord.R
  5. require(plyr)
  6. axes = c('LD1', 'LD2')
  7. obs <- data.frame(predict(ord_in)$x[, axes])
  8. obs$Groups <- grp_in
  9. names(obs)[1:2] <- c('one', 'two')
  10. theta <- c(seq(-pi, pi, length = 50), seq(pi, -pi, length = 50))
  11. circle <- cbind(cos(theta), sin(theta))
  12. ell <- ddply(obs, 'Groups', function(x) {
  13. if(nrow(x) <= 2) {
  14. return(NULL)
  15. }
  16. sigma <- var(cbind(x$one, x$two))
  17. mu <- c(mean(x$one), mean(x$two))
  18. ed <- sqrt(qchisq(ellipse_pro, df = 2))
  19. data.frame(sweep(circle %*% chol(sigma) * ed, 2, mu, FUN = '+'))
  20. })
  21. names(ell)[2:3] <- c('one', 'two')
  22. ell <- ddply(ell, .(Groups), function(x) x[chull(x$one, x$two), ])
  23. ell
  24. }
  25.  
  26. # 计算置信椭圆,并添加至原图
  27. anotherEll <- get_lda_ell(ord, iris$Species, 0.97)
  28. ## Loading required package: plyr
  29. p + geom_polygon(data = anotherEll,
  30. aes_string(color = 'Groups', group = 'Groups'),
  31. lty=2, fill = NA)

LDA分析、作图及添加置信-ggord-图片3

图3. 添加0.97置信区间的虚线椭圆

以菌群测试数据实战

  1. # 读入实验设计
  2. design = read.table("design.txt", header=T, row.names= 1, sep="\t")
  3. # 读取OTU表
  4. otu_table = read.delim("otu_table.txt", row.names= 1, header=T, sep="\t")
  5. # 转换原始数据为百分比
  6. norm = t(t(otu_table)/colSums(otu_table,na=T)) * 100 # normalization to total 100
  7. # 按mad值排序取前6波动最大的OTUs
  8. mad.5 = head(norm[order(apply(norm,1,mad), decreasing=T),],n=6)
  9. row.names(mad.5)=c("Streptophyta","Rubrivivax","Methylibium","Streptosporangiaceae","Streptomyces","Niastella")
  10. data=as.data.frame(t(mad.5))
  11. # 添加分组信息
  12. data$group=design[row.names(data),]$genotype
  13.  
  14. # 按实验基因组分组排序
  15. ord <- lda(group ~ ., data)
  16.  
  17. # 使用ggbiplot展示lda(可选)
  18. library(ggbiplot)
  19. ggbiplot(ord, obs.scale = 1, var.scale = 1,
  20. groups = data$group, ellipse = TRUE,var.axes = F)
  21. # 展示LDA分析
  22. library(ggord)
  23. p <- ggord(ord, data$group, ellipse_pro = 0.68)
  24. p

LDA分析、作图及添加置信-ggord-图片4

图4. LDA分析三组6个高度差异菌的分组+背景置信区间

  1. anotherEll <- get_lda_ell(ord, data$group, 0.97)
  2. p + geom_polygon(data = anotherEll,
  3. aes_string(color = 'Groups', group = 'Groups'),
  4. lty=2, fill = NA)

LDA分析、作图及添加置信-ggord-图片5

图4. LDA分析三组6个高度差异菌的分组+背景置信区间。按68%和97%天加置信区间背景色和虚线椭圆

LDA与PCA比较

LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此值得好好的比较一下两者的降维异同点。

首先我们看看相同点:

1)两者均可以对数据进行降维。

2)两者在降维时均使用了矩阵特征分解的思想。

3)两者都假设数据符合高斯分布。

我们接着看看不同点:

1)LDA是有监督的降维方法,而PCA是无监督的降维方法

2)LDA降维最多降到类别数k-1的维数,而PCA没有这个限制。

3)LDA除了可以用于降维,还可以用于分类。

4)LDA选择分类性能最好的投影方向,而PCA选择样本点投影具有最大方差的方向。

这点可以从下图形象的看出,在某些数据分布下LDA比PCA降维较优。

LDA分析、作图及添加置信-ggord-图片6

LDA算法小结

LDA算法既可以用来降维,又可以用来分类,但是目前来说,主要还是用于降维。在我们进行实验数据组间差异分析时,LDA是一个有力的工具。下面总结下LDA算法的优缺点。

LDA算法的主要优点有:

1)在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。

2)LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优。

LDA算法的主要缺点有:

1)LDA不适合对非高斯分布样本进行降维,PCA也有这个问题。

2)LDA降维最多降到类别数k-1的维数,如果我们降维的维度大于k-1,则不能使用LDA。当然目前有一些LDA的进化版算法可以绕过这个问题。

3)LDA在样本分类信息依赖方差而不是均值的时候,降维效果不好。

4)LDA可能过度拟合数据。[1]

Reference

  1. 线性判别分析LDA原理总结 - 刘建平Pinard - 博客园 https://www.cnblogs.com/pinard/p/6244265.html
  2. 本文方法主要参考Chenhao的博客 http://lchblogs.netlify.com/post/2017-12-22-r-addconfellipselda/
  3. 《扩增子分析教程-3统计绘图-冲击高分文章》http://mp.weixin.qq.com/s/6tNePiaDsPPzEBZjiCXIRg
  4. ggbiplot-最好看的PCA作图:样品PCA散点+分组椭圆+变量贡献和相关
  5. ggord主页 https://github.com/fawda123/ggord

发表评论

匿名网友

拖动滑块以完成验证
加载失败