-
-
微信
-
微博
分享文章到微博
-
复制链接
复制链接到剪贴板
-
K-means算法、高斯混合模型 matlab
【摘要】 K-means算法、高斯混合模型
简介:
本节介绍STANFORD机器学习公开课中的第12、13集视频中的算法:K-means算法、高斯混合模型(GMM)。(9、10、11集不进行介绍,略过了哈)
一、K-means算法
属于无监督学...
K-means算法、高斯混合模型
简介:
本节介绍STANFORD机器学习公开课中的第12、13集视频中的算法:K-means算法、高斯混合模型(GMM)。(9、10、11集不进行介绍,略过了哈)
本节介绍STANFORD机器学习公开课中的第12、13集视频中的算法:K-means算法、高斯混合模型(GMM)。(9、10、11集不进行介绍,略过了哈)
一、K-means算法
属于无监督学习的聚类算法,给定一组未标定的数据(输入样本),对其进行分类,假设可分为k个类。由于算法比较直观,故直接给出步骤和MATLAB代码。(k-means算法在数学推导上是有意义的)

MATLAB代码:
- %%
- %k均值聚类
- clear all;
- close all;
- %%
- n=2;
- m=200;
- v0=randn(m/2,2)-1;
- v1=randn(m/2,2)+1;
- figure;
- subplot(221);
- hold on;
- plot(v0(:,1),v0(:,2),'r.');
- plot(v1(:,1),v1(:,2),'b.');
- %axis([-5 5 -5 5]);
- title('已分类数据');
- hold off;
-
- data=[v0;v1];
- data=sortrows(data,1);
- subplot(222);
- plot(data(:,1),data(:,2),'g.');
- title('未分类数据');
- %axis([-5 5 -5 5]);
- %%
- [a b]=size(data);
- m1=data(20,:);%随机取重心点
- m2=data(120,:);%随机取重心点
- k1=zeros(1,2);
- k2=zeros(1,2);
- n1=0;
- n2=0;
- subplot(223);hold on;
- %axis([-5 5 -5 5]);
- for t=1:10
- for i=1:a
- d1=pdist2(m1,data(i,:));
- d2=pdist2(m2,data(i,:));
- if (d1<d2)
- k1=k1+data(i,:);
- n1=n1+1;
- plot(data(i,1),data(i,2),'r.');
- else
- k2=k2+data(i,:);
- n2=n2+1;
- plot(data(i,1),data(i,2),'b.');
- end
- end
- m1=k1/n1;
- m2=k2/n2;
- % plot(m1(1,1),m1(1,2),'g.');
- % plot(m2(1,1),m2(1,2),'g.');
- k1=zeros(1,2);
- k2=zeros(1,2);
- n1=0;
- n2=0;
- end
- plot(m1(1,1),m1(1,2),'k*');
- plot(m2(1,1),m2(1,2),'k*');
- title('k-means聚类');
- hold off;
%%
%k均值聚类
clear all;
close all;
%%
n=2;
m=200;
v0=randn(m/2,2)-1;
v1=randn(m/2,2)+1;
figure;
subplot(221);
hold on;
plot(v0(:,1),v0(:,2),'r.');
plot(v1(:,1),v1(:,2),'b.');
%axis([-5 5 -5 5]);
title('已分类数据');
hold off;
data=[v0;v1];
data=sortrows(data,1);
subplot(222);
plot(data(:,1),data(:,2),'g.');
title('未分类数据');
%axis([-5 5 -5 5]);
%%
[a b]=size(data);
m1=data(20,:);%随机取重心点
m2=data(120,:);%随机取重心点
k1=zeros(1,2);
k2=zeros(1,2);
n1=0;
n2=0;
subplot(223);hold on;
%axis([-5 5 -5 5]);
for t=1:10
for i=1:a
d1=pdist2(m1,data(i,:));
d2=pdist2(m2,data(i,:));
if (d1<d2)
k1=k1+data(i,:);
n1=n1+1;
plot(data(i,1),data(i,2),'r.');
else
k2=k2+data(i,:);
n2=n2+1;
plot(data(i,1),data(i,2),'b.');
end
end
m1=k1/n1;
m2=k2/n2;
% plot(m1(1,1),m1(1,2),'g.');
% plot(m2(1,1),m2(1,2),'g.');
k1=zeros(1,2);
k2=zeros(1,2);
n1=0;
n2=0;
end
plot(m1(1,1),m1(1,2),'k*');
plot(m2(1,1),m2(1,2),'k*');
title('k-means聚类');
hold off;
输出结果(未分类数据是由已分类数据去掉标签,黑色※号表示聚类中心):
属于无监督学习的聚类算法,给定一组未标定的数据(输入样本),对其进行分类,假设可分为k个类。由于算法比较直观,故直接给出步骤和MATLAB代码。(k-means算法在数学推导上是有意义的)
MATLAB代码:
- %%
- %k均值聚类
- clear all;
- close all;
- %%
- n=2;
- m=200;
- v0=randn(m/2,2)-1;
- v1=randn(m/2,2)+1;
- figure;
- subplot(221);
- hold on;
- plot(v0(:,1),v0(:,2),'r.');
- plot(v1(:,1),v1(:,2),'b.');
- %axis([-5 5 -5 5]);
- title('已分类数据');
- hold off;
- data=[v0;v1];
- data=sortrows(data,1);
- subplot(222);
- plot(data(:,1),data(:,2),'g.');
- title('未分类数据');
- %axis([-5 5 -5 5]);
- %%
- [a b]=size(data);
- m1=data(20,:);%随机取重心点
- m2=data(120,:);%随机取重心点
- k1=zeros(1,2);
- k2=zeros(1,2);
- n1=0;
- n2=0;
- subplot(223);hold on;
- %axis([-5 5 -5 5]);
- for t=1:10
- for i=1:a
- d1=pdist2(m1,data(i,:));
- d2=pdist2(m2,data(i,:));
- if (d1<d2)
- k1=k1+data(i,:);
- n1=n1+1;
- plot(data(i,1),data(i,2),'r.');
- else
- k2=k2+data(i,:);
- n2=n2+1;
- plot(data(i,1),data(i,2),'b.');
- end
- end
- m1=k1/n1;
- m2=k2/n2;
- % plot(m1(1,1),m1(1,2),'g.');
- % plot(m2(1,1),m2(1,2),'g.');
- k1=zeros(1,2);
- k2=zeros(1,2);
- n1=0;
- n2=0;
- end
- plot(m1(1,1),m1(1,2),'k*');
- plot(m2(1,1),m2(1,2),'k*');
- title('k-means聚类');
- hold off;
%%
%k均值聚类
clear all;
close all;
%%
n=2;
m=200;
v0=randn(m/2,2)-1;
v1=randn(m/2,2)+1;
figure;
subplot(221);
hold on;
plot(v0(:,1),v0(:,2),'r.');
plot(v1(:,1),v1(:,2),'b.');
%axis([-5 5 -5 5]);
title('已分类数据');
hold off;
data=[v0;v1];
data=sortrows(data,1);
subplot(222);
plot(data(:,1),data(:,2),'g.');
title('未分类数据');
%axis([-5 5 -5 5]);
%%
[a b]=size(data);
m1=data(20,:);%随机取重心点
m2=data(120,:);%随机取重心点
k1=zeros(1,2);
k2=zeros(1,2);
n1=0;
n2=0;
subplot(223);hold on;
%axis([-5 5 -5 5]);
for t=1:10
for i=1:a
d1=pdist2(m1,data(i,:));
d2=pdist2(m2,data(i,:));
if (d1<d2)
k1=k1+data(i,:);
n1=n1+1;
plot(data(i,1),data(i,2),'r.');
else
k2=k2+data(i,:);
n2=n2+1;
plot(data(i,1),data(i,2),'b.');
end
end
m1=k1/n1;
m2=k2/n2;
% plot(m1(1,1),m1(1,2),'g.');
% plot(m2(1,1),m2(1,2),'g.');
k1=zeros(1,2);
k2=zeros(1,2);
n1=0;
n2=0;
end
plot(m1(1,1),m1(1,2),'k*');
plot(m2(1,1),m2(1,2),'k*');
title('k-means聚类');
hold off;
输出结果(未分类数据是由已分类数据去掉标签,黑色※号表示聚类中心):

二、高斯混合模型(GMM)
回想之前之前的高斯判别分析法(GDA),是通过计算样本的后验概率来进行判别,而后验概率是通过假设多元高斯模型来计算得来的。高斯模型的参数:均值、协方差,是由已标定(分类)的样本得来,所以可以看做是一种监督学习方法。
在GMM模型(属于无监督学习),给定未分类的m个样本(n维特征),假设可分为k个类,要求用GMM算法对其进行分类。如果我们知道每个类的高斯参数,则可以向GDA算法那样计算出后验概率进行判别。但遗憾的是,杨输入的样本未被标定,也就是说我们得不到高斯参数:均值、协方差。这就引出EM(Expectation Maximization Algorithm:期望最大化)算法。
EM算法的思想有点类似于k-means,就是通过迭代来得出最好的参数,有了这些参数就可以像GDA那样做分类了。GMM及EM具体步骤如下:

MATLAB代码如下:
- %%
- %GMM算法(高斯混合模型)soft assignment(软划分)
- clear all;
- close all;
- %%
- k=2;%聚类数
- n=2;%维数
- m=200;
- % v0=randn(m/2,2)-1;
- % v1=randn(m/2,2)+1;
- v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1
- v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0
- figure;subplot(221);
- hold on;
- plot(v0(:,1),v0(:,2),'r.');
- plot(v1(:,1),v1(:,2),'b.');
- title('已分类数据');
- hold off;
- %%
- data=[v0;v1];
- data=sortrows(data,1);
- subplot(222);
- plot(data(:,1),data(:,2),'g.');
- title('未分类数据');
- %%
- mu1=mean(data(1:50,:));
- mu2=mean(data(100:180,:));
- sigma1=cov(data(1:50,:));
- sigma2=cov(data(100:180,:));
- p=zeros(m,k);%概率
- thresh=0.05;%迭代终止条件
- iter=0;%记录迭代次数
- while(1)
- iter=iter+1;
- A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
- A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
- for i=1:m
- p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
- p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
- pp=sum(p(i,:));
- p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1
- p(i,2)=p(i,2)/pp;
- end
- sum1=zeros(n,n);
- sum2=zeros(n,n);
- for i=1:m
- sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1);
- sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2);
- end
- sigma1=sum1/sum(p(:,1));
- sigma2=sum2/sum(p(:,2));
- mu1_pre=mu1;
- mu2_pre=mu2;
- mu1=(p(:,1)'*data)/sum(p(:,1));
- mu2=(p(:,2)'*data)/sum(p(:,2));
- if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh))
- break;
- end
- end
- %%
- subplot(223);
- hold on;
- A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
- A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
- for i=1:m
- p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
- p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
- if p(i,1)>=p(i,2)
- plot(data(i,1),data(i,2),'r.');
- else
- plot(data(i,1),data(i,2),'b.');
- end
- end
- title('GMM分类');
- hold off;
- %完
%%
%GMM算法(高斯混合模型)soft assignment(软划分)
clear all;
close all;
%%
k=2;%聚类数
n=2;%维数
m=200;
% v0=randn(m/2,2)-1;
% v1=randn(m/2,2)+1;
v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1
v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0
figure;subplot(221);
hold on;
plot(v0(:,1),v0(:,2),'r.');
plot(v1(:,1),v1(:,2),'b.');
title('已分类数据');
hold off;
%%
data=[v0;v1];
data=sortrows(data,1);
subplot(222);
plot(data(:,1),data(:,2),'g.');
title('未分类数据');
%%
mu1=mean(data(1:50,:));
mu2=mean(data(100:180,:));
sigma1=cov(data(1:50,:));
sigma2=cov(data(100:180,:));
p=zeros(m,k);%概率
thresh=0.05;%迭代终止条件
iter=0;%记录迭代次数
while(1)
iter=iter+1;
A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
for i=1:m
p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
pp=sum(p(i,:));
p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1
p(i,2)=p(i,2)/pp;
end
sum1=zeros(n,n);
sum2=zeros(n,n);
for i=1:m
sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1);
sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2);
end
sigma1=sum1/sum(p(:,1));
sigma2=sum2/sum(p(:,2));
mu1_pre=mu1;
mu2_pre=mu2;
mu1=(p(:,1)'*data)/sum(p(:,1));
mu2=(p(:,2)'*data)/sum(p(:,2));
if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh))
break;
end
end
%%
subplot(223);
hold on;
A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
for i=1:m
p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
if p(i,1)>=p(i,2)
plot(data(i,1),data(i,2),'r.');
else
plot(data(i,1),data(i,2),'b.');
end
end
title('GMM分类');
hold off;
%完
输出结果:
回想之前之前的高斯判别分析法(GDA),是通过计算样本的后验概率来进行判别,而后验概率是通过假设多元高斯模型来计算得来的。高斯模型的参数:均值、协方差,是由已标定(分类)的样本得来,所以可以看做是一种监督学习方法。
在GMM模型(属于无监督学习),给定未分类的m个样本(n维特征),假设可分为k个类,要求用GMM算法对其进行分类。如果我们知道每个类的高斯参数,则可以向GDA算法那样计算出后验概率进行判别。但遗憾的是,杨输入的样本未被标定,也就是说我们得不到高斯参数:均值、协方差。这就引出EM(Expectation Maximization Algorithm:期望最大化)算法。
EM算法的思想有点类似于k-means,就是通过迭代来得出最好的参数,有了这些参数就可以像GDA那样做分类了。GMM及EM具体步骤如下:
MATLAB代码如下:
- %%
- %GMM算法(高斯混合模型)soft assignment(软划分)
- clear all;
- close all;
- %%
- k=2;%聚类数
- n=2;%维数
- m=200;
- % v0=randn(m/2,2)-1;
- % v1=randn(m/2,2)+1;
- v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1
- v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0
- figure;subplot(221);
- hold on;
- plot(v0(:,1),v0(:,2),'r.');
- plot(v1(:,1),v1(:,2),'b.');
- title('已分类数据');
- hold off;
- %%
- data=[v0;v1];
- data=sortrows(data,1);
- subplot(222);
- plot(data(:,1),data(:,2),'g.');
- title('未分类数据');
- %%
- mu1=mean(data(1:50,:));
- mu2=mean(data(100:180,:));
- sigma1=cov(data(1:50,:));
- sigma2=cov(data(100:180,:));
- p=zeros(m,k);%概率
- thresh=0.05;%迭代终止条件
- iter=0;%记录迭代次数
- while(1)
- iter=iter+1;
- A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
- A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
- for i=1:m
- p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
- p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
- pp=sum(p(i,:));
- p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1
- p(i,2)=p(i,2)/pp;
- end
- sum1=zeros(n,n);
- sum2=zeros(n,n);
- for i=1:m
- sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1);
- sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2);
- end
- sigma1=sum1/sum(p(:,1));
- sigma2=sum2/sum(p(:,2));
- mu1_pre=mu1;
- mu2_pre=mu2;
- mu1=(p(:,1)'*data)/sum(p(:,1));
- mu2=(p(:,2)'*data)/sum(p(:,2));
- if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh))
- break;
- end
- end
- %%
- subplot(223);
- hold on;
- A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
- A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
- for i=1:m
- p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
- p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
- if p(i,1)>=p(i,2)
- plot(data(i,1),data(i,2),'r.');
- else
- plot(data(i,1),data(i,2),'b.');
- end
- end
- title('GMM分类');
- hold off;
- %完
%%
%GMM算法(高斯混合模型)soft assignment(软划分)
clear all;
close all;
%%
k=2;%聚类数
n=2;%维数
m=200;
% v0=randn(m/2,2)-1;
% v1=randn(m/2,2)+1;
v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1
v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0
figure;subplot(221);
hold on;
plot(v0(:,1),v0(:,2),'r.');
plot(v1(:,1),v1(:,2),'b.');
title('已分类数据');
hold off;
%%
data=[v0;v1];
data=sortrows(data,1);
subplot(222);
plot(data(:,1),data(:,2),'g.');
title('未分类数据');
%%
mu1=mean(data(1:50,:));
mu2=mean(data(100:180,:));
sigma1=cov(data(1:50,:));
sigma2=cov(data(100:180,:));
p=zeros(m,k);%概率
thresh=0.05;%迭代终止条件
iter=0;%记录迭代次数
while(1)
iter=iter+1;
A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
for i=1:m
p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
pp=sum(p(i,:));
p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1
p(i,2)=p(i,2)/pp;
end
sum1=zeros(n,n);
sum2=zeros(n,n);
for i=1:m
sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1);
sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2);
end
sigma1=sum1/sum(p(:,1));
sigma2=sum2/sum(p(:,2));
mu1_pre=mu1;
mu2_pre=mu2;
mu1=(p(:,1)'*data)/sum(p(:,1));
mu2=(p(:,2)'*data)/sum(p(:,2));
if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh))
break;
end
end
%%
subplot(223);
hold on;
A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2)));
A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2)));
for i=1:m
p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)');
p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)');
if p(i,1)>=p(i,2)
plot(data(i,1),data(i,2),'r.');
else
plot(data(i,1),data(i,2),'b.');
end
end
title('GMM分类');
hold off;
%完
输出结果:

文章来源: blog.csdn.net,作者:网奇,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/jacke121/article/details/78488987
推荐

华为开发者空间发布
让每位开发者拥有一台云主机
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
作者其他文章
全部回复
上滑加载中
关于作者
阅读
605.4w+
获赞
7
评论
2
目录
- K-means算法、高斯混合模型
- 简介:
- 本节介绍STANFORD机器学习公开课中的第12、13集视频中的算法:K-means算法、高斯混合模型(GMM)。(9、10、11集不进行介绍,略过了哈)
- 一、K-means算法
- 属于无监督学习的聚类算法,给定一组未标定的数据(输入样本),对其进行分类,假设可分为k个类。由于算法比较直观,故直接给出步骤和MATLAB代码。(k-means算法在数学推导上是有意义的) MATLAB代码: [cpp] view plain copy print ? %% %k均值聚类 clear all; close all; %% n=2; m=200; v0=randn(m/2,2)-1; v1=randn(m/2,2)+1; figure; subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); %axis([-5 5 -5 5]); title('已分类数据'); hold off; data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %axis([-5 5 -5 5]); %% [a b]=size(data); m1=data(20,:);%随机取重心点 m2=data(120,:);%随机取重心点 k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; subplot(223);hold on; %axis([-5 5 -5 5]); for t=1:10 for i=1:a d1=pdist2(m1,data(i,:)); d2=pdist2(m2,data(i,:)); if (d1<d2) k1=k1+data(i,:); n1=n1+1; plot(data(i,1),data(i,2),'r.'); else k2=k2+data(i,:); n2=n2+1; plot(data(i,1),data(i,2),'b.'); end end m1=k1/n1; m2=k2/n2; % plot(m1(1,1),m1(1,2),'g.'); % plot(m2(1,1),m2(1,2),'g.'); k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; end plot(m1(1,1),m1(1,2),'k*'); plot(m2(1,1),m2(1,2),'k*'); title('k-means聚类'); hold off; %% %k均值聚类 clear all; close all; %% n=2; m=200; v0=randn(m/2,2)-1; v1=randn(m/2,2)+1; figure; subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); %axis([-5 5 -5 5]); title('已分类数据'); hold off; data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %axis([-5 5 -5 5]); %% [a b]=size(data); m1=data(20,:);%随机取重心点 m2=data(120,:);%随机取重心点 k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; subplot(223);hold on; %axis([-5 5 -5 5]); for t=1:10 for i=1:a d1=pdist2(m1,data(i,:)); d2=pdist2(m2,data(i,:)); if (d1<d2) k1=k1+data(i,:); n1=n1+1; plot(data(i,1),data(i,2),'r.'); else k2=k2+data(i,:); n2=n2+1; plot(data(i,1),data(i,2),'b.'); end end m1=k1/n1; m2=k2/n2; % plot(m1(1,1),m1(1,2),'g.'); % plot(m2(1,1),m2(1,2),'g.'); k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; end plot(m1(1,1),m1(1,2),'k*'); plot(m2(1,1),m2(1,2),'k*'); title('k-means聚类'); hold off; 输出结果(未分类数据是由已分类数据去掉标签,黑色※号表示聚类中心):
- 二、高斯混合模型(GMM)
- 回想之前之前的高斯判别分析法(GDA),是通过计算样本的后验概率来进行判别,而后验概率是通过假设多元高斯模型来计算得来的。高斯模型的参数:均值、协方差,是由已标定(分类)的样本得来,所以可以看做是一种监督学习方法。 在GMM模型(属于无监督学习),给定未分类的m个样本(n维特征),假设可分为k个类,要求用GMM算法对其进行分类。如果我们知道每个类的高斯参数,则可以向GDA算法那样计算出后验概率进行判别。但遗憾的是,杨输入的样本未被标定,也就是说我们得不到高斯参数:均值、协方差。这就引出EM(Expectation Maximization Algorithm:期望最大化)算法。 EM算法的思想有点类似于k-means,就是通过迭代来得出最好的参数,有了这些参数就可以像GDA那样做分类了。GMM及EM具体步骤如下: MATLAB代码如下: [cpp] view plain copy print ? %% %GMM算法(高斯混合模型)soft assignment(软划分) clear all; close all; %% k=2;%聚类数 n=2;%维数 m=200; % v0=randn(m/2,2)-1; % v1=randn(m/2,2)+1; v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1 v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0 figure;subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); title('已分类数据'); hold off; %% data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %% mu1=mean(data(1:50,:)); mu2=mean(data(100:180,:)); sigma1=cov(data(1:50,:)); sigma2=cov(data(100:180,:)); p=zeros(m,k);%概率 thresh=0.05;%迭代终止条件 iter=0;%记录迭代次数 while(1) iter=iter+1; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); pp=sum(p(i,:)); p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1 p(i,2)=p(i,2)/pp; end sum1=zeros(n,n); sum2=zeros(n,n); for i=1:m sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1); sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2); end sigma1=sum1/sum(p(:,1)); sigma2=sum2/sum(p(:,2)); mu1_pre=mu1; mu2_pre=mu2; mu1=(p(:,1)'*data)/sum(p(:,1)); mu2=(p(:,2)'*data)/sum(p(:,2)); if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh)) break; end end %% subplot(223); hold on; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); if p(i,1)>=p(i,2) plot(data(i,1),data(i,2),'r.'); else plot(data(i,1),data(i,2),'b.'); end end title('GMM分类'); hold off; %完 %% %GMM算法(高斯混合模型)soft assignment(软划分) clear all; close all; %% k=2;%聚类数 n=2;%维数 m=200; % v0=randn(m/2,2)-1; % v1=randn(m/2,2)+1; v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1 v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0 figure;subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); title('已分类数据'); hold off; %% data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %% mu1=mean(data(1:50,:)); mu2=mean(data(100:180,:)); sigma1=cov(data(1:50,:)); sigma2=cov(data(100:180,:)); p=zeros(m,k);%概率 thresh=0.05;%迭代终止条件 iter=0;%记录迭代次数 while(1) iter=iter+1; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); pp=sum(p(i,:)); p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1 p(i,2)=p(i,2)/pp; end sum1=zeros(n,n); sum2=zeros(n,n); for i=1:m sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1); sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2); end sigma1=sum1/sum(p(:,1)); sigma2=sum2/sum(p(:,2)); mu1_pre=mu1; mu2_pre=mu2; mu1=(p(:,1)'*data)/sum(p(:,1)); mu2=(p(:,2)'*data)/sum(p(:,2)); if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh)) break; end end %% subplot(223); hold on; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); if p(i,1)>=p(i,2) plot(data(i,1),data(i,2),'r.'); else plot(data(i,1),data(i,2),'b.'); end end title('GMM分类'); hold off; %完 输出结果:
推荐阅读
- 【聚类算法】基于matlab改进的粒子群算法优化K-means算法【含Matlab源码 1946期】
- 【单目标优化求解】基于matlab多子群的共生非均匀高斯变异樽海鞘群算法求解单目标优化问题【含Matlab源码 1857期】
- 基于GMM高斯混合模型的语音信息身份识别算法的matlab仿真
- 【数学建模】MATLAB应用实战系列(106)-机器学习算法:K-means聚类(附MATLAB代码)
- 【SVM时间序列预测】基于matlab粒子群算法优化SVM时间序列预测【含Matlab源码 259期】
- 基于Levenberg-Marquardt算法的声源定位matlab仿真
- 【ELM分类】基于matlab遗传算法结合爬山算法优化ELM分类【含Matlab源码 1660期】
- 基于MFCC特征提取和GMM训练的语音信号识别matlab仿真
- 【轴承故障诊断】基于matlab贝叶斯优化支持向量机轴承故障诊断(西储数据)【含Matlab源码 2027期】
- 【电力负荷预测】基于matlab SVM短期电力负荷预测【含Matlab源码 280期】
目录
- K-means算法、高斯混合模型
- 简介:
- 本节介绍STANFORD机器学习公开课中的第12、13集视频中的算法:K-means算法、高斯混合模型(GMM)。(9、10、11集不进行介绍,略过了哈)
- 一、K-means算法
- 属于无监督学习的聚类算法,给定一组未标定的数据(输入样本),对其进行分类,假设可分为k个类。由于算法比较直观,故直接给出步骤和MATLAB代码。(k-means算法在数学推导上是有意义的) MATLAB代码: [cpp] view plain copy print ? %% %k均值聚类 clear all; close all; %% n=2; m=200; v0=randn(m/2,2)-1; v1=randn(m/2,2)+1; figure; subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); %axis([-5 5 -5 5]); title('已分类数据'); hold off; data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %axis([-5 5 -5 5]); %% [a b]=size(data); m1=data(20,:);%随机取重心点 m2=data(120,:);%随机取重心点 k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; subplot(223);hold on; %axis([-5 5 -5 5]); for t=1:10 for i=1:a d1=pdist2(m1,data(i,:)); d2=pdist2(m2,data(i,:)); if (d1<d2) k1=k1+data(i,:); n1=n1+1; plot(data(i,1),data(i,2),'r.'); else k2=k2+data(i,:); n2=n2+1; plot(data(i,1),data(i,2),'b.'); end end m1=k1/n1; m2=k2/n2; % plot(m1(1,1),m1(1,2),'g.'); % plot(m2(1,1),m2(1,2),'g.'); k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; end plot(m1(1,1),m1(1,2),'k*'); plot(m2(1,1),m2(1,2),'k*'); title('k-means聚类'); hold off; %% %k均值聚类 clear all; close all; %% n=2; m=200; v0=randn(m/2,2)-1; v1=randn(m/2,2)+1; figure; subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); %axis([-5 5 -5 5]); title('已分类数据'); hold off; data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %axis([-5 5 -5 5]); %% [a b]=size(data); m1=data(20,:);%随机取重心点 m2=data(120,:);%随机取重心点 k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; subplot(223);hold on; %axis([-5 5 -5 5]); for t=1:10 for i=1:a d1=pdist2(m1,data(i,:)); d2=pdist2(m2,data(i,:)); if (d1<d2) k1=k1+data(i,:); n1=n1+1; plot(data(i,1),data(i,2),'r.'); else k2=k2+data(i,:); n2=n2+1; plot(data(i,1),data(i,2),'b.'); end end m1=k1/n1; m2=k2/n2; % plot(m1(1,1),m1(1,2),'g.'); % plot(m2(1,1),m2(1,2),'g.'); k1=zeros(1,2); k2=zeros(1,2); n1=0; n2=0; end plot(m1(1,1),m1(1,2),'k*'); plot(m2(1,1),m2(1,2),'k*'); title('k-means聚类'); hold off; 输出结果(未分类数据是由已分类数据去掉标签,黑色※号表示聚类中心):
- 二、高斯混合模型(GMM)
- 回想之前之前的高斯判别分析法(GDA),是通过计算样本的后验概率来进行判别,而后验概率是通过假设多元高斯模型来计算得来的。高斯模型的参数:均值、协方差,是由已标定(分类)的样本得来,所以可以看做是一种监督学习方法。 在GMM模型(属于无监督学习),给定未分类的m个样本(n维特征),假设可分为k个类,要求用GMM算法对其进行分类。如果我们知道每个类的高斯参数,则可以向GDA算法那样计算出后验概率进行判别。但遗憾的是,杨输入的样本未被标定,也就是说我们得不到高斯参数:均值、协方差。这就引出EM(Expectation Maximization Algorithm:期望最大化)算法。 EM算法的思想有点类似于k-means,就是通过迭代来得出最好的参数,有了这些参数就可以像GDA那样做分类了。GMM及EM具体步骤如下: MATLAB代码如下: [cpp] view plain copy print ? %% %GMM算法(高斯混合模型)soft assignment(软划分) clear all; close all; %% k=2;%聚类数 n=2;%维数 m=200; % v0=randn(m/2,2)-1; % v1=randn(m/2,2)+1; v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1 v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0 figure;subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); title('已分类数据'); hold off; %% data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %% mu1=mean(data(1:50,:)); mu2=mean(data(100:180,:)); sigma1=cov(data(1:50,:)); sigma2=cov(data(100:180,:)); p=zeros(m,k);%概率 thresh=0.05;%迭代终止条件 iter=0;%记录迭代次数 while(1) iter=iter+1; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); pp=sum(p(i,:)); p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1 p(i,2)=p(i,2)/pp; end sum1=zeros(n,n); sum2=zeros(n,n); for i=1:m sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1); sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2); end sigma1=sum1/sum(p(:,1)); sigma2=sum2/sum(p(:,2)); mu1_pre=mu1; mu2_pre=mu2; mu1=(p(:,1)'*data)/sum(p(:,1)); mu2=(p(:,2)'*data)/sum(p(:,2)); if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh)) break; end end %% subplot(223); hold on; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); if p(i,1)>=p(i,2) plot(data(i,1),data(i,2),'r.'); else plot(data(i,1),data(i,2),'b.'); end end title('GMM分类'); hold off; %完 %% %GMM算法(高斯混合模型)soft assignment(软划分) clear all; close all; %% k=2;%聚类数 n=2;%维数 m=200; % v0=randn(m/2,2)-1; % v1=randn(m/2,2)+1; v0=mvnrnd([1 1],[1 0;0 1],m/2);%生成正样本1 v1=mvnrnd([4 4],[1 0;0 1],m/2);%生成负样本0 figure;subplot(221); hold on; plot(v0(:,1),v0(:,2),'r.'); plot(v1(:,1),v1(:,2),'b.'); title('已分类数据'); hold off; %% data=[v0;v1]; data=sortrows(data,1); subplot(222); plot(data(:,1),data(:,2),'g.'); title('未分类数据'); %% mu1=mean(data(1:50,:)); mu2=mean(data(100:180,:)); sigma1=cov(data(1:50,:)); sigma2=cov(data(100:180,:)); p=zeros(m,k);%概率 thresh=0.05;%迭代终止条件 iter=0;%记录迭代次数 while(1) iter=iter+1; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); pp=sum(p(i,:)); p(i,1)=p(i,1)/pp;%归一化,样本属于某类的概率的总和为1 p(i,2)=p(i,2)/pp; end sum1=zeros(n,n); sum2=zeros(n,n); for i=1:m sum1=sum1+p(i,1)*(data(i,:)-mu1)'*(data(i,:)-mu1); sum2=sum2+p(i,2)*(data(i,:)-mu2)'*(data(i,:)-mu2); end sigma1=sum1/sum(p(:,1)); sigma2=sum2/sum(p(:,2)); mu1_pre=mu1; mu2_pre=mu2; mu1=(p(:,1)'*data)/sum(p(:,1)); mu2=(p(:,2)'*data)/sum(p(:,2)); if ((pdist2(mu1_pre,mu1)<=thresh) || (pdist2(mu2_pre,mu2)<=thresh)) break; end end %% subplot(223); hold on; A1=1/(((2*pi)^(n/2))*((det(sigma1))^(1/2))); A2=1/(((2*pi)^(n/2))*((det(sigma2))^(1/2))); for i=1:m p(i,1)=A1*exp((-1/2)*(data(i,:)-mu1)*sigma1*(data(i,:)-mu1)'); p(i,2)=A2*exp((-1/2)*(data(i,:)-mu2)*sigma2*(data(i,:)-mu2)'); if p(i,1)>=p(i,2) plot(data(i,1),data(i,2),'r.'); else plot(data(i,1),data(i,2),'b.'); end end title('GMM分类'); hold off; %完 输出结果:
推荐阅读
- 【聚类算法】基于matlab改进的粒子群算法优化K-means算法【含Matlab源码 1946期】
- 【单目标优化求解】基于matlab多子群的共生非均匀高斯变异樽海鞘群算法求解单目标优化问题【含Matlab源码 1857期】
- 基于GMM高斯混合模型的语音信息身份识别算法的matlab仿真
- 【数学建模】MATLAB应用实战系列(106)-机器学习算法:K-means聚类(附MATLAB代码)
- 【SVM时间序列预测】基于matlab粒子群算法优化SVM时间序列预测【含Matlab源码 259期】
- 基于Levenberg-Marquardt算法的声源定位matlab仿真
- 【ELM分类】基于matlab遗传算法结合爬山算法优化ELM分类【含Matlab源码 1660期】
- 基于MFCC特征提取和GMM训练的语音信号识别matlab仿真
- 【轴承故障诊断】基于matlab贝叶斯优化支持向量机轴承故障诊断(西储数据)【含Matlab源码 2027期】
- 【电力负荷预测】基于matlab SVM短期电力负荷预测【含Matlab源码 280期】
评论(0)