R k-means,层次聚类,EM聚类的实现
【摘要】 R k-means,层次聚类,EM聚类的实现
1 准备工作与预览
在上一章节,博主介绍了3种聚类方式和其原理,本章主要是R代码的实现过程,代码为主,讲解为辅。详细原理参考上一章节
############### R BASICS #############################
rm(list=ls()) #清除R工作环境中的所有内容
#set the work directory
#setwd("C:/Temp/Cluster")
getwd()
#install.packages("ggplot2") #安装包
library(ggplot2) #加载包
##############Segmentation code ##########################
#import raw data
dat<-read.csv('practice_sample.csv',stringsAsFactors = F)
View(dat)
str(dat) #数据概览
summary(dat)
2 数据探索
进行基础性的数据探索预览数据详情和缺失值情况
######Part1:数据探索
sum(is.na(dat[,1:23])) #缺失值总数
colSums(is.na(dat[,1:23])) #显示每列的缺失值数量
mean(!complete.cases(dat$AU002)) #显示缺失值比例
对数据进行分类统计,预览大致情况,缺失值少于20%的情况可以考虑删除,异常值可以盖帽法处理
library(plyr)
#分类统计
prof<-ddply(dat,.(XB851),summarise,cnt=length(consumer_profile_key)) #分组统计
View(prof)
观察数据情况也可直接summary
explore=function(x,y){
y<-c(
var="AU002",
mean=mean(x,na.rm=TRUE) , #na.rm=TRUE去除NA的影响
median=median(x,na.rm=TRUE) ,
quantile(x,c(0,0.01,0.1,0.25,0.5,0.75,0.9,0.99,1),na.rm=TRUE),
max=max(x,na.rm=TRUE),
missing=sum(is.na(x))
)
}
explore(dat$AU002,mean_AU002)
View(t(mean_AU002))
3 缺失值处理
方法1 删除缺失值
######Part2:缺失值替换
#dat1<-na.omit(dat) #删除有缺失值的记录
#dat2<-dat[complete.cases(dat),] #删除有缺失值的记录
方法2填补
#填补
dat$R2_XB851 <- ifelse(is.na(dat$XB851) == T,0,dat$XB851)
summary(dat$XB851)
summary(dat$R2_XB851)
由于本次数据集中缺失值占比较少可以直接删除
4 标准化处理
k-eans聚类对量纲很敏感,量纲不同造成的距离不同,因此先消除量纲的影响。对数据进行标准化的处理。
#subset
dat.sub<-dat[,substr(names(dat),1,3)=="R1_"]
str(dat.sub)
#Scaling
dat.scale<-as.data.frame(scale(dat.sub)) #数据标准化
colSums(dat.scale) #列总和
5 k-means聚类分析
######Part3: 聚类分析
######Part3.1: K-Means
set.seed(12345)
cluster.km<-kmeans(dat.scale, centers=4,iter.max = 20)
cluster.km$iter #迭代次数
cluster.km$size #每类数量
cluster.km$centers #聚类中心
table(cluster.km$cluster) #每类数量
cluster.km$totss #总平方和 (总平方和=组内平方和+组间平方和)
cluster.km$tot.withinss #组内平方和的总和 (组内平方和越小越好,说明组内差异不大)
cluster.km$betweenss #组间平方和 (组间平方和越大越好,说明组间差异大)
cluster.km$betweenss/cluster.km$totss #组间平方和占总平方和的比例(又称R方,聚类优度),可用于进行聚类比较,该值越大表明组内差距越小,组间差距越大,即聚类效果越好
聚类结果展示
聚类结果合并,合并到原始数据中展现
#将聚类结果合并到原始数据上
clus<-data.frame(cluster=cluster.km$cluster,dat.sub)
#Cluster profiling
clus_profile<-aggregate(.~cluster,data=clus,FUN=mean)
clus_profile
聚类优度
由于k-means聚类,需要事先定好需要几类,对与k的选取可以尝试循环试参数,判断最佳参数的依据是
work on sampling data
by betweenss/totss
#选择最佳聚类数
#work on sampling data
#by betweenss/totss
set.seed(26987)
dat.temp<-dat.sub[sample(nrow(dat.scale),2000,replace=F),] #抽样
results<-rep(1:20) #比较不同聚类个数下的聚类优度
for (k in 1:20){
fit.km<-kmeans(dat.temp, centers=k,iter.max = 20)
results[k]<-fit.km$betweenss/fit.km$totss
}
round(results,2)
对参数结果画图展现,抽取的2000样本聚类优度如下
plot(1:20, results, type="b", xlab="Number of Clusters",ylab="results")
根据轮廓系数
轮廓系数进行聚类好坏的标准进行评判
#by Silhouette Coefficient
#轮廓系数约趋近1越好
#install.packages("fpc")
library(fpc)
K <- 2:8
round <- 5
rst <- sapply(K, function(i){
print(paste("K=",i))
mean(sapply(1:round,function(r){
print(paste("Round",r))
result <- kmeans(dat.temp, i)
stats <- cluster.stats(dist(dat.temp), result$cluster)
stats$avg.silwidth
}))
})
聚类优度和轮廓系数共同判断
#做图(聚类优度和轮廓系数)
cluster<-c(2:8)
r<-results[2:8]
sil<-rst
plot(cluster,r,type='b',pch=16,lty=1,ylim=c(0.5,1),xlab='number of clusters',ylab='parameters')
lines(cluster,sil,type='b',lty=2,pch=17)
legend('topleft',inset=0.05,c('results','silhouette'),lty=c(1,2),pch=c(16,17))
使用多指标,进行投票判断,占票数多的k值是最优的
#by NbCluster,用多种指标来判断聚类个数,但运行速度较慢
#install.packages("NbClust")
library(NbClust)
#provide 30 index to determine optimal number of cluster
set.seed(26987)
nc.index<-NbClust(dat.temp, min.nc=3, max.nc=6, method="kmeans") #从最小聚类数3遍历到最大聚类数6,通过评估指标看分别在聚类数为多少时达到最优,最后选择指标支持数最多的聚类数目为最佳聚类数目。
nc.index$Best.nc #30个指标的投票最优
barplot(table(nc.index$Best.nc[1,]),
xlab="Numer of Clusters", ylab="Number of Criteria",
main="Number of Clusters Chosen by 26 Criteria")
6 层次聚类
由于层次聚类的计算较为复杂,计算很慢,先分为50组再使用层次聚类
#####Part3.2:Hierarchical clustering
set.seed(123)
#层次聚类计算太慢,先使用k-mean分成50类,再使用层次聚类
clus.x<-kmeans(dat.scale, centers=50,iter.max = 200,algorithm ="Lloyd") #algorithm为动态聚类的算法,默认为“Hartigan-Wong", 其他还有"Lloyd","Forgy", "MacQueen"
clus.x$size
hist(clus.x$size)
使用k-means结果的均值进行聚类
clus.sub<-data.frame(cluster=clus.x$cluster,dat.sub)
# get cluster means
clus.n50<-aggregate(.~cluster,data=clus.sub,FUN=mean) #按cluster进行分组统计均值
head(clus.n50)
clus.n50.scale<-scale(clus.n50[,-1])
进行层次聚类,再对生成的聚类树进行剪枝
clus.dist<-dist(clus.n50.scale, method = "euclidean") # 距离矩阵
clus.dist
cluster.hc<-hclust(clus.dist) #默认method=complete最长距离法,其他还有最短距离法(single),离差平方和法(wald),重心法(centroid),类平均法(average)等
plot(cluster.hc) # 对聚类结果做树状图
groups_k4<-cutree(cluster.hc, k=4) #利用剪枝函数中的参数k控制聚类个数为4
table(groups_k4)
groups_h10<-cutree(cluster.hc, h=10) #利用剪枝函数中的参数h控制距离为10
table(groups_h10)
plot(cluster.hc)
rect.hclust(cluster.hc, k=4, border="red") #用红色矩形框在树状图中框出聚类个数为4的结果
rect.hclust(cluster.hc, k=3, border="green") #用绿色矩形框在树状图中框出聚类个数为3的结果
层次聚类效果展示,这里是进行压缩到二维的展示
#层级聚类采用cophenetic distance用于度量聚类的效果,越接近1越好
cop<-cophenetic(cluster.hc) #cophenetic相关系数测量了原始距离与根据“树”估计的距离之间的相似性
cor(cop, clus.dist)
#绘制二元聚类图
library(cluster)
par(mfrow = c(1,2))
clusplot(clus.n50.scale, groups_k4, color=TRUE, shade=TRUE,labels=2, lines=0)
clusplot(clus.n50.scale, groups_h10, color=TRUE, shade=TRUE,labels=2, lines=0)
7 EM聚类
EM聚类相比其它二种显得更为抽象,相关介绍参考上一章节,评价标准运用高斯混合模型
######Part3.3:Model Based Clustering
#soft clustering
library(mclust)
cluster.mb<-Mclust(clus.n50.scale,G=4) #进行EM聚类
summary(cluster.mb) #显示聚类结果的信息汇总
cluster.mb.bic<-mclustBIC(clus.n50.scale) #各聚类数下的BIC值 AIC赤池信息准则,BIC贝叶斯信息准则
summary(cluster.mb.bic)#高斯混合模型
8 3种聚类简单对比
以R自身带有的数据iris进行分析,对聚类结果和真实结果进行比较
data<-iris
str(data)
summary(data)
table(data$Species)
dat.test<-scale(iris[,1:4])
head(dat.test)
#Kmeans
set.seed(12345)
clus.kmeans<-kmeans(dat.test,3)
clus.kmeans$centers
# Hierarchical
test.dist<-dist(dat.test, method = "euclidean")
clus.hc<-hclust(test.dist)
plot(clus.hc)
#EM clustering
clus.em<-Mclust(dat.test,G=3)
#在图形上展现
#多维标度分析,将多维空间的研究对象简化到低维空间进行定位
mds = cmdscale(dist(dat.test,method="euclidean"))
head(mds)
#做图
old.par <- par(mfrow = c(1,4))
plot(mds, col=iris$Species, main='true class', pch = 19)
plot(mds, col=clus.kmeans$cluster, main='Kmeans k=3', pch = 19)
plot(mds, col=cutree(clus.hc, k=3), main='Hierarchical', pch = 19)
plot(mds, col=clus.em$classification, main='EM clustering', pch = 19)
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)