简单易学的机器学习算法——谱聚类(Spectal Clustering)

简单易学的机器学习算法——谱聚类(Spectal Clustering)

一、复杂网络中的一些基本概念

1、复杂网络的表示      在复杂网络的表示中,复杂网络可以建模成一个图

,其中,

表示网络中的节点的集合,

表示的是连接的集合。在复杂网络中,复杂网络可以是无向图、有向图、加权图或者超图。

2、网络簇结构      网络簇结构 (network cluster structure) 也称为网络社团结构 (network community structure) ,是复杂网络中最普遍和最重要的拓扑属性之一。网络簇是整个网络中的稠密连接分支,具有同簇内部节点之间相互连接密集,不同簇的节点之间相互连接稀疏的特征。

3、复杂网络的分类      复杂网络主要分为:随机网络,小世界网络和无标度网络。

二、谱方法介绍

1、谱方法的思想      在复杂网络的网络簇结构存在着同簇节点之间连接密集,不同簇节点之间连接稀疏的特征,是否可以根据这样的特征对网络中的节点进行聚类,使得同类节点之间的连接密集,不同类别节点之间的连接稀疏?       在谱聚类中定义了“截”函数的概念,当一个网络被划分成为两个子网络时,“截”即指子网间的连接密度。谱聚类的目的就是要找到一种合理的分割,使得分割后形成若干子图,连接不同的子图的边的权重尽可能低,即“截”最小,同子图内的边的权重尽可能高。

2、“截”函数的具体表现形式      “截”表示的是子网间的密度,即边比较少。以二分为例,将图聚类成两个类:

类和

类。假设用

来表示图的划分,我们需要的结果为:


   其中

表示的是类别

之间的权重。 对于

个不同的类别

,优化的目标为:


3、基本“截”函数的弊端      对于上述的“截”函数,最终会导致不好的分割,如二分类问题:

www.zeeklog.com - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   上述的“截”函数通常会将图分割成一个点和其余

个点。

4、其他的“截”函数的表现形式      为了能够让每个类都有合理的大小,目标函数中应该使得

足够大,则提出了

或者



   其中

表示

类中包含的顶点的数目

三、Laplacian矩阵

1、Laplacian矩阵的定义      拉普拉斯矩阵 (Laplacian Matrix) ,也称为基尔霍夫矩阵,是图的一种矩阵表示形式。       对于一个有

个顶点的图

,其 Laplacian 矩阵定义为:


   其中,

为图的度矩阵,

为图的邻接矩阵。

2、度矩阵的定义     度矩阵是一个对角矩阵,主角线上的值由对应的顶点的度组成。      对于一个有

个顶点的图

,其邻接矩阵为:


   其度矩阵为:


   其中

3、Laplacian矩阵的性质

  1. Laplacian矩阵

是对称半正定矩阵;

  1. Laplacian矩阵

的最小特征值是

,相应的特征向量是

  1. Laplacian矩阵

个非负实特征值:

,且对于任何一个实向量

,都有下面的式子成立:

性质3的证明:


4、不同的Laplacian矩阵      除了上述的拉普拉斯矩阵,还有规范化的 Laplacian 矩阵形式:


四、Laplacian矩阵与谱聚类中的优化函数的关系

1、由Laplacian矩阵到“截”函数      对于二个类别的聚类问题,优化的目标函数为:


   定义向量

,且


   而已知:

,则




   而



   而



   其中,

表示的是顶点的数目,对于确定的图来说是个常数。由上述的推导可知,由

推导出了

,由此可知: Laplacian 矩阵与有优化的目标函数

之间存在密切的联系。

2、新的目标函数      由上式可得:


   由于

是个常数,故要求

的最小值,即求

的最小值。则新的目标函数为:


   其中

3、转化到Laplacian矩阵的求解      假设

是 Laplacian 矩阵

的特征值,

是特征值

对应的特征向量,则有:


   在上式的两端同时左乘


   已知

,则

,上式可以转化为:


   要求

,即只需求得最小特征值

。由 Laplacian 矩阵的性质可知, Laplacian 矩阵的最小特征值为

。由 Rayleigh-Ritz 理论,可以取第2小特征值。

www.zeeklog.com - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


五、从二类别聚类到多类别聚类

1、二类别聚类      对于求解出来的特征向量

中的每一个分量

,根据每个分量的值来判断对应的点所属的类别:


2、多类别聚类      对于求出来的前

个特征向量,可以利用 K-Means 聚类方法对其进行聚类,若前

个特征向量为

,这样便由特征向量构成如下的特征向量矩阵:


   将特征向量矩阵中的每一行最为一个样本,利用K-Means聚类方法对其进行聚类。

六、谱聚类的过程

1、基本的结构      基于以上的分析,谱聚类的基本过程为:

  1. 对于给定的图

,求图的度矩阵

和邻接矩阵

  1. 计算图的Laplacian矩阵

  1. 对Laplacian矩阵进行特征值分解,取其前

个特征值对应的特征向量,构成

的特征向量矩阵;

  1. 利用K-Means聚类算法对上述的

的特征向量矩阵进行聚类,每一行代表一个样本点。

2、利用相似度矩阵的构造方法      上述的方法是通过图的度矩阵

和邻接矩阵

来构造Laplacian矩阵,也可以通过相似度矩阵的方法构造Laplacian矩阵,其方法如下:      相似度矩阵是由权值矩阵得到:

其中


   再利用相似度矩阵

构造 Laplacian 矩阵:


   其中

为相似度矩阵

的度矩阵。   注意:在第一种方法中,求解的是Laplacian矩阵的前

个最小特征值对应的特征向量,在第二种方法中,求解的是Laplacian矩阵的前

个最大特征值对应的特征向量

七、实验代码

1、自己实现的一个

#coding:UTF-8 ''' Created on 2015年5月12日 @author: zhaozhiyong ''' from __future__ import division import scipy.io as scio from scipy import sparse from scipy.sparse.linalg.eigen import arpack#这里只能这么做,不然始终找不到函数eigs from numpy import * def spectalCluster(data, sigma, num_clusters): print "将邻接矩阵转换成相似矩阵" #先完成sigma != 0 print "Fixed-sigma谱聚类" data = sparse.csc_matrix.multiply(data, data) data = -data / (2 * sigma * sigma) S = sparse.csc_matrix.expm1(data) + sparse.csc_matrix.multiply(sparse.csc_matrix.sign(data), sparse.csc_matrix.sign(data)) #转换成Laplacian矩阵 print "将相似矩阵转换成Laplacian矩阵" D = S.sum(1)#相似矩阵是对称矩阵 D = sqrt(1 / D) n = len(D) D = D.T D = sparse.spdiags(D, 0, n, n) L = D * S * D #求特征值和特征向量 print "求特征值和特征向量" vals, vecs = arpack.eigs(L, k=num_clusters,tol=0,which="LM") # 利用k-Means print "利用K-Means对特征向量聚类" #对vecs做正规化 sq_sum = sqrt(multiply(vecs,vecs).sum(1)) m_1, m_2 = shape(vecs) for i in xrange(m_1): for j in xrange(m_2): vecs[i,j] = vecs[i,j]/sq_sum[i] myCentroids, clustAssing = kMeans(vecs, num_clusters) for i in xrange(shape(clustAssing)[0]): print clustAssing[i,0] def randCent(dataSet, k): n = shape(dataSet)[1] centroids = mat(zeros((k,n)))#create centroid mat for j in range(n):#create random cluster centers, within bounds of each dimension minJ = min(dataSet[:,j]) rangeJ = float(max(dataSet[:,j]) - minJ) centroids[:,j] = mat(minJ + rangeJ * random.rand(k,1)) return centroids def distEclud(vecA, vecB): return sqrt(sum(power(vecA - vecB, 2))) #la.norm(vecA-vecB) def kMeans(dataSet, k): m = shape(dataSet)[0] clusterAssment = mat(zeros((m,2)))#create mat to assign data points to a centroid, also holds SE of each point centroids = randCent(dataSet, k) clusterChanged = True while clusterChanged: clusterChanged = False for i in range(m):#for each data point assign it to the closest centroid minDist = inf; minIndex = -1 for j in range(k): distJI = distEclud(centroids[j,:],dataSet[i,:]) if distJI < minDist: minDist = distJI; minIndex = j if clusterAssment[i,0] != minIndex: clusterChanged = True clusterAssment[i,:] = minIndex,minDist**2 #print centroids for cent in range(k):#recalculate centroids ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]]#get all the point in this cluster centroids[cent,:] = mean(ptsInClust, axis=0) #assign centroid to mean return centroids, clusterAssment if __name__ == '__main__': # 导入数据集 matf = 'E://data_sc//corel_50_NN_sym_distance.mat' dataDic = scio.loadmat(matf) data = dataDic['A'] # 谱聚类的过程 spectalCluster(data, 20, 18) 


2、网上提供的一个Matlab代码

function [cluster_labels evd_time kmeans_time total_time] = sc(A, sigma, num_clusters) %SC Spectral clustering using a sparse similarity matrix (t-nearest-neighbor). % % Input : A : N-by-N sparse distance matrix, where % N is the number of data % sigma : sigma value used in computing similarity, % if 0, apply self-tunning technique % num_clusters : number of clusters % % Output : cluster_labels : N-by-1 vector containing cluster labels % evd_time : running time for eigendecomposition % kmeans_time : running time for k-means % total_time : total running time % % Convert the sparse distance matrix to a sparse similarity matrix, % where S = exp^(-(A^2 / 2*sigma^2)). % Note: This step can be ignored if A is sparse similarity matrix. % disp('Converting distance matrix to similarity matrix...'); tic; n = size(A, 1); if (sigma == 0) % Selftuning spectral clustering % Find the count of nonzero for each column disp('Selftuning spectral clustering...'); col_count = sum(A~=0, 1)'; col_sum = sum(A, 1)'; col_mean = col_sum ./ col_count; [x y val] = find(A); A = sparse(x, y, -val.*val./col_mean(x)./col_mean(y)./2); clear col_count col_sum col_mean x y val; else % Fixed-sigma spectral clustering disp('Fixed-sigma spectral clustering...'); A = A.*A; A = -A/(2*sigma*sigma); end % Do exp function sequentially because of memory limitation num = 2000; num_iter = ceil(n/num); S = sparse([]); for i = 1:num_iter start_index = 1 + (i-1)*num; end_index = min(i*num, n); S1 = spfun(@exp, A(:,start_index:end_index)); % sparse exponential func S = [S S1]; clear S1; end clear A; toc; % % Do laplacian, L = D^(-1/2) * S * D^(-1/2) % disp('Doing Laplacian...'); D = sum(S, 2) + (1e-10); D = sqrt(1./D); % D^(-1/2) D = spdiags(D, 0, n, n); L = D * S * D; clear D S; time1 = toc; % % Do eigendecomposition, if L = % D^(-1/2) * S * D(-1/2) : set 'LM' (Largest Magnitude), or % I - D^(-1/2) * S * D(-1/2): set 'SM' (Smallest Magnitude). % disp('Performing eigendecomposition...'); OPTS.disp = 0; [V, val] = eigs(L, num_clusters, 'LM', OPTS); time2 = toc; % % Do k-means % disp('Performing kmeans...'); % Normalize each row to be of unit length sq_sum = sqrt(sum(V.*V, 2)) + 1e-20; U = V ./ repmat(sq_sum, 1, num_clusters); clear sq_sum V; cluster_labels = k_means(U, [], num_clusters); total_time = toc; % % Calculate and show time statistics % evd_time = time2 - time1 kmeans_time = total_time - time2 total_time disp('Finished!'); 


function cluster_labels = k_means(data, centers, num_clusters) %K_MEANS Euclidean k-means clustering algorithm. % % Input : data : N-by-D data matrix, where N is the number of data, % D is the number of dimensions % centers : K-by-D matrix, where K is num_clusters, or % 'random', random initialization, or % [], empty matrix, orthogonal initialization % num_clusters : Number of clusters % % Output : cluster_labels : N-by-1 vector of cluster assignment % % Reference: Dimitrios Zeimpekis, Efstratios Gallopoulos, 2006. % http://scgroup.hpclab.ceid.upatras.gr/scgroup/Projects/TMG/ % % Parameter setting % iter = 0; qold = inf; threshold = 0.001; % % Check if with initial centers % if strcmp(centers, 'random') disp('Random initialization...'); centers = random_init(data, num_clusters); elseif isempty(centers) disp('Orthogonal initialization...'); centers = orth_init(data, num_clusters); end % % Double type is required for sparse matrix multiply % data = double(data); centers = double(centers); % % Calculate the distance (square) between data and centers % n = size(data, 1); x = sum(data.*data, 2)'; X = x(ones(num_clusters, 1), :); y = sum(centers.*centers, 2); Y = y(:, ones(n, 1)); P = X + Y - 2*centers*data'; % % Main program % while 1 iter = iter + 1; % Find the closest cluster for each data point [val, ind] = min(P, [], 1); % Sum up data points within each cluster P = sparse(ind, 1:n, 1, num_clusters, n); centers = P*data; % Size of each cluster, for cluster whose size is 0 we keep it empty cluster_size = P*ones(n, 1); % For empty clusters, initialize again zero_cluster = find(cluster_size==0); if length(zero_cluster) > 0 disp('Zero centroid. Initialize again...'); centers(zero_cluster, :)= random_init(data, length(zero_cluster)); cluster_size(zero_cluster) = 1; end % Update centers centers = spdiags(1./cluster_size, 0, num_clusters, num_clusters)*centers; % Update distance (square) to new centers y = sum(centers.*centers, 2); Y = y(:, ones(n, 1)); P = X + Y - 2*centers*data'; % Calculate objective function value qnew = sum(sum(sparse(ind, 1:n, 1, size(P, 1), size(P, 2)).*P)); mesg = sprintf('Iteration %d:\n\tQold=%g\t\tQnew=%g', iter, full(qold), full(qnew)); disp(mesg); % Check if objective function value is less than/equal to threshold if threshold >= abs((qnew-qold)/qold) mesg = sprintf('\nkmeans converged!'); disp(mesg); break; end qold = qnew; end cluster_labels = ind'; %----------------------------------------------------------------------------- function init_centers = random_init(data, num_clusters) %RANDOM_INIT Initialize centroids choosing num_clusters rows of data at random % % Input : data : N-by-D data matrix, where N is the number of data, % D is the number of dimensions % num_clusters : Number of clusters % % Output: init_centers : K-by-D matrix, where K is num_clusters rand('twister', sum(100*clock)); init_centers = data(ceil(size(data, 1)*rand(1, num_clusters)), :); function init_centers = orth_init(data, num_clusters) %ORTH_INIT Initialize orthogonal centers for k-means clustering algorithm. % % Input : data : N-by-D data matrix, where N is the number of data, % D is the number of dimensions % num_clusters : Number of clusters % % Output: init_centers : K-by-D matrix, where K is num_clusters % % Find the num_clusters centers which are orthogonal to each other % Uniq = unique(data, 'rows'); % Avoid duplicate centers num = size(Uniq, 1); first = ceil(rand(1)*num); % Randomly select the first center init_centers = zeros(num_clusters, size(data, 2)); % Storage for centers init_centers(1, :) = Uniq(first, :); Uniq(first, :) = []; c = zeros(num-1, 1); % Accumalated orthogonal values to existing centers for non-centers % Find the rest num_clusters-1 centers for j = 2:num_clusters c = c + abs(Uniq*init_centers(j-1, :)'); [minimum, i] = min(c); % Select the most orthogonal one as next center init_centers(j, :) = Uniq(i, :); Uniq(i, :) = []; c(i) = []; end clear c Uniq; 


个人的一点认识:谱聚类的过程相当于先进行一个非线性的降维,然后在这样的低维空间中再利用聚类的方法进行聚类。   欢迎大家一起讨论,如有问题欢迎留言,欢迎大家转载。


参考

1、从拉普拉斯矩阵说到谱聚类(http://blog.ZEEKLOG.net/v_july_v/article/details/40738211)

2、(http://www.cnblogs.com/FengYan/archive/2012/06/21/2553999.html)

3、(http://www.cnblogs.com/sparkwen/p/3155850.html)

Read more

黄仁勋公开发文:传统软件开发模式终结,参与AI不必非得拥有计算机博士学位

黄仁勋公开发文:传统软件开发模式终结,参与AI不必非得拥有计算机博士学位

黄仁勋分享全文: AI 是当今塑造世界最强大的力量之一。它并非仅仅是一款巧妙的应用程序,也不是某个单一的模型,而是一种就像电力和互联网一样的基础设施。 AI 依赖真实的硬件、真实的能源以及真实的经济体系运行。它可以把原材料大规模地转化为智能。未来,每家公司都会使用 AI,每个国家/地区都会建设 AI。 要理解 AI 为什么会以这样的方式发展,最好的方法是从第一性原理出发,看看计算领域究竟发生了哪些根本性的变化。 从预先编写的软件,到实时生成的智能 在计算机发展的绝大多数历史中,软件都是预先写好的。人类先描述算法,然后由计算机执行。数据必须被精心组织与设计,存储在表格中,再通过精确的查询进行检索。 因此,SQL 成为不可或缺的工具,因为它让这种计算模式变得可行。 而 AI 打破了这一模式。 我们首次拥有了一台能够理解非结构化信息的计算机。它可以识别图像、阅读文本、理解声音,并理解其中的含义。它能够根据上下文和意图进行推理。更重要的是,它能够实时生成智能。 每一次回答都是全新的。每一次回应都取决于你提供的上下文。这不再是软件从数据库中取出预先存储的指令。而是软件在实时推理

By Ne0inhk
转型AI工程师实战指南

转型AI工程师实战指南

https://github.com/zeeklog/Be-an-AI-engineer-from-any-role 如果帮到你,Plz右上角Star⭐️ 来自 590 家公司的895 条真实JD的数据分析结论: AI 工程师岗位正在疯狂分层——会的人月入翻倍,不会的人正在被时代彻底甩在身后。 现在不行动,你就下一个N+1 🚀 AI 工程师角色 残酷真相:AI 工程师已经彻底变天! 2026 年市场只认一种人:能把 LLM + RAG + Agent 真正上线、能赚钱、能扛住生产压力的 Full-Stack Builder。 岗位类型分布(2026 真实画像) * AI-First(69.4%):直接构建产品核心功能(RAG、智能体、自动化工作流)——做不出来就出局 * AI-Support(28.5%):为全公司搭建 AI

By Ne0inhk