简单易学的机器学习算法——谱聚类(Spectal Clustering)

简单易学的机器学习算法——谱聚类(Spectal Clustering)

一、复杂网络中的一些基本概念

1、复杂网络的表示      在复杂网络的表示中,复杂网络可以建模成一个图

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,其中,

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

表示网络中的节点的集合,

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

表示的是连接的集合。在复杂网络中,复杂网络可以是无向图、有向图、加权图或者超图。

2、网络簇结构      网络簇结构 (network cluster structure) 也称为网络社团结构 (network community structure) ,是复杂网络中最普遍和最重要的拓扑属性之一。网络簇是整个网络中的稠密连接分支,具有同簇内部节点之间相互连接密集,不同簇的节点之间相互连接稀疏的特征。

3、复杂网络的分类      复杂网络主要分为:随机网络,小世界网络和无标度网络。

二、谱方法介绍

1、谱方法的思想      在复杂网络的网络簇结构存在着同簇节点之间连接密集,不同簇节点之间连接稀疏的特征,是否可以根据这样的特征对网络中的节点进行聚类,使得同类节点之间的连接密集,不同类别节点之间的连接稀疏?       在谱聚类中定义了“截”函数的概念,当一个网络被划分成为两个子网络时,“截”即指子网间的连接密度。谱聚类的目的就是要找到一种合理的分割,使得分割后形成若干子图,连接不同的子图的边的权重尽可能低,即“截”最小,同子图内的边的权重尽可能高。

2、“截”函数的具体表现形式      “截”表示的是子网间的密度,即边比较少。以二分为例,将图聚类成两个类:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

类和

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

类。假设用

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

来表示图的划分,我们需要的结果为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其中

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

表示的是类别

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

之间的权重。 对于

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个不同的类别

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,优化的目标为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


3、基本“截”函数的弊端      对于上述的“截”函数,最终会导致不好的分割,如二分类问题:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   上述的“截”函数通常会将图分割成一个点和其余

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个点。

4、其他的“截”函数的表现形式      为了能够让每个类都有合理的大小,目标函数中应该使得

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

足够大,则提出了

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

或者

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其中

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

表示

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

类中包含的顶点的数目

三、Laplacian矩阵

1、Laplacian矩阵的定义      拉普拉斯矩阵 (Laplacian Matrix) ,也称为基尔霍夫矩阵,是图的一种矩阵表示形式。       对于一个有

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个顶点的图

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,其 Laplacian 矩阵定义为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其中,

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

为图的度矩阵,

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

为图的邻接矩阵。

2、度矩阵的定义     度矩阵是一个对角矩阵,主角线上的值由对应的顶点的度组成。      对于一个有

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个顶点的图

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,其邻接矩阵为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其度矩阵为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其中

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

3、Laplacian矩阵的性质

  1. Laplacian矩阵
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

是对称半正定矩阵;

  1. Laplacian矩阵
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

的最小特征值是

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,相应的特征向量是

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

  1. Laplacian矩阵
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个非负实特征值:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,且对于任何一个实向量

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,都有下面的式子成立:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

性质3的证明:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


4、不同的Laplacian矩阵      除了上述的拉普拉斯矩阵,还有规范化的 Laplacian 矩阵形式:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


四、Laplacian矩阵与谱聚类中的优化函数的关系

1、由Laplacian矩阵到“截”函数      对于二个类别的聚类问题,优化的目标函数为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   定义向量

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,且

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   而已知:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,则

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   而

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   而

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其中,

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

表示的是顶点的数目,对于确定的图来说是个常数。由上述的推导可知,由

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

推导出了

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,由此可知: Laplacian 矩阵与有优化的目标函数

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

之间存在密切的联系。

2、新的目标函数      由上式可得:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   由于

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

是个常数,故要求

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

的最小值,即求

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

的最小值。则新的目标函数为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其中

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

3、转化到Laplacian矩阵的求解      假设

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

是 Laplacian 矩阵

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

的特征值,

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

是特征值

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

对应的特征向量,则有:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   在上式的两端同时左乘

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   已知

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,则

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,上式可以转化为:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   要求

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,即只需求得最小特征值

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

。由 Laplacian 矩阵的性质可知, Laplacian 矩阵的最小特征值为

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

。由 Rayleigh-Ritz 理论,可以取第2小特征值。

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


五、从二类别聚类到多类别聚类

1、二类别聚类      对于求解出来的特征向量

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

中的每一个分量

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,根据每个分量的值来判断对应的点所属的类别:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


2、多类别聚类      对于求出来的前

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个特征向量,可以利用 K-Means 聚类方法对其进行聚类,若前

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个特征向量为

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,这样便由特征向量构成如下的特征向量矩阵:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   将特征向量矩阵中的每一行最为一个样本,利用K-Means聚类方法对其进行聚类。

六、谱聚类的过程

1、基本的结构      基于以上的分析,谱聚类的基本过程为:

  1. 对于给定的图
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

,求图的度矩阵

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

和邻接矩阵

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

  1. 计算图的Laplacian矩阵
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

  1. 对Laplacian矩阵进行特征值分解,取其前
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个特征值对应的特征向量,构成

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

的特征向量矩阵;

  1. 利用K-Means聚类算法对上述的
www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

的特征向量矩阵进行聚类,每一行代表一个样本点。

2、利用相似度矩阵的构造方法      上述的方法是通过图的度矩阵

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

和邻接矩阵

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

来构造Laplacian矩阵,也可以通过相似度矩阵的方法构造Laplacian矩阵,其方法如下:      相似度矩阵是由权值矩阵得到:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

其中

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   再利用相似度矩阵

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

构造 Laplacian 矩阵:

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)


   其中

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

为相似度矩阵

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

的度矩阵。   注意:在第一种方法中,求解的是Laplacian矩阵的前

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个最小特征值对应的特征向量,在第二种方法中,求解的是Laplacian矩阵的前

www.zeeklog.com  - 简单易学的机器学习算法——谱聚类(Spectal Clustering)

个最大特征值对应的特征向量

七、实验代码

1、自己实现的一个

#coding:UTF-8
'''
Created on 2015年5月12日

@author: zhaozhiyong
'''
from __future__ import division
import scipy.io as scio
from scipy import sparse
from scipy.sparse.linalg.eigen import arpack#这里只能这么做,不然始终找不到函数eigs
from numpy import *


def spectalCluster(data, sigma, num_clusters):
    print "将邻接矩阵转换成相似矩阵"
    #先完成sigma != 0
    print "Fixed-sigma谱聚类"
    data = sparse.csc_matrix.multiply(data, data)

    data = -data / (2 * sigma * sigma)
    
    S = sparse.csc_matrix.expm1(data) + sparse.csc_matrix.multiply(sparse.csc_matrix.sign(data), sparse.csc_matrix.sign(data))   
    
    #转换成Laplacian矩阵
    print "将相似矩阵转换成Laplacian矩阵"
    D = S.sum(1)#相似矩阵是对称矩阵
    D = sqrt(1 / D)
    n = len(D)
    D = D.T
    D = sparse.spdiags(D, 0, n, n)
    L = D * S * D
    
    #求特征值和特征向量
    print "求特征值和特征向量"
    vals, vecs = arpack.eigs(L, k=num_clusters,tol=0,which="LM")  
    
    # 利用k-Means
    print "利用K-Means对特征向量聚类"
    #对vecs做正规化
    sq_sum = sqrt(multiply(vecs,vecs).sum(1))
    m_1, m_2 = shape(vecs)
    for i in xrange(m_1):
        for j in xrange(m_2):
            vecs[i,j] = vecs[i,j]/sq_sum[i]
    
    myCentroids, clustAssing = kMeans(vecs, num_clusters)
    
    for i in xrange(shape(clustAssing)[0]):
        print clustAssing[i,0]
    

def randCent(dataSet, k):
    n = shape(dataSet)[1]
    centroids = mat(zeros((k,n)))#create centroid mat
    for j in range(n):#create random cluster centers, within bounds of each dimension
        minJ = min(dataSet[:,j]) 
        rangeJ = float(max(dataSet[:,j]) - minJ)
        centroids[:,j] = mat(minJ + rangeJ * random.rand(k,1))
    return centroids

def distEclud(vecA, vecB):
    return sqrt(sum(power(vecA - vecB, 2))) #la.norm(vecA-vecB)

def kMeans(dataSet, k):
    m = shape(dataSet)[0]
    clusterAssment = mat(zeros((m,2)))#create mat to assign data points to a centroid, also holds SE of each point
    centroids = randCent(dataSet, k)
    clusterChanged = True
    while clusterChanged:
        clusterChanged = False
        for i in range(m):#for each data point assign it to the closest centroid
            minDist = inf; minIndex = -1
            for j in range(k):
                distJI = distEclud(centroids[j,:],dataSet[i,:])
                if distJI < minDist:
                    minDist = distJI; minIndex = j
            if clusterAssment[i,0] != minIndex: clusterChanged = True
            clusterAssment[i,:] = minIndex,minDist**2
        #print centroids
        for cent in range(k):#recalculate centroids
            ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]]#get all the point in this cluster
            centroids[cent,:] = mean(ptsInClust, axis=0) #assign centroid to mean 
    return centroids, clusterAssment


if __name__ == '__main__':
    # 导入数据集
    matf = 'E://data_sc//corel_50_NN_sym_distance.mat'
    dataDic = scio.loadmat(matf)
    data = dataDic['A']
    # 谱聚类的过程
    spectalCluster(data, 20, 18)


2、网上提供的一个Matlab代码

function [cluster_labels evd_time kmeans_time total_time] = sc(A, sigma, num_clusters)
%SC Spectral clustering using a sparse similarity matrix (t-nearest-neighbor).
%
%   Input  : A              : N-by-N sparse distance matrix, where
%                             N is the number of data
%            sigma          : sigma value used in computing similarity,
%                             if 0, apply self-tunning technique
%            num_clusters   : number of clusters
%
%   Output : cluster_labels : N-by-1 vector containing cluster labels
%            evd_time       : running time for eigendecomposition
%            kmeans_time    : running time for k-means
%            total_time     : total running time

%
% Convert the sparse distance matrix to a sparse similarity matrix,
% where S = exp^(-(A^2 / 2*sigma^2)).
% Note: This step can be ignored if A is sparse similarity matrix.
%
disp('Converting distance matrix to similarity matrix...');
tic;
n = size(A, 1);

if (sigma == 0) % Selftuning spectral clustering
  % Find the count of nonzero for each column
  disp('Selftuning spectral clustering...');
  col_count = sum(A~=0, 1)';
  col_sum = sum(A, 1)';
  col_mean = col_sum ./ col_count;
  [x y val] = find(A);
  A = sparse(x, y, -val.*val./col_mean(x)./col_mean(y)./2);
  clear col_count col_sum col_mean x y val;
else % Fixed-sigma spectral clustering
  disp('Fixed-sigma spectral clustering...');
  A = A.*A;
  A = -A/(2*sigma*sigma);
end

% Do exp function sequentially because of memory limitation
num = 2000;
num_iter = ceil(n/num);
S = sparse([]);
for i = 1:num_iter
  start_index = 1 + (i-1)*num;
  end_index = min(i*num, n);
  S1 = spfun(@exp, A(:,start_index:end_index)); % sparse exponential func
  S = [S S1];
  clear S1;
end
clear A;
toc;

%
% Do laplacian, L = D^(-1/2) * S * D^(-1/2)
%
disp('Doing Laplacian...');
D = sum(S, 2) + (1e-10);
D = sqrt(1./D); % D^(-1/2)
D = spdiags(D, 0, n, n);
L = D * S * D;
clear D S;
time1 = toc;

%
% Do eigendecomposition, if L =
%   D^(-1/2) * S * D(-1/2)    : set 'LM' (Largest Magnitude), or
%   I - D^(-1/2) * S * D(-1/2): set 'SM' (Smallest Magnitude).
%
disp('Performing eigendecomposition...');
OPTS.disp = 0;
[V, val] = eigs(L, num_clusters, 'LM', OPTS);
time2 = toc;

%
% Do k-means
%
disp('Performing kmeans...');
% Normalize each row to be of unit length
sq_sum = sqrt(sum(V.*V, 2)) + 1e-20;
U = V ./ repmat(sq_sum, 1, num_clusters);
clear sq_sum V;
cluster_labels = k_means(U, [], num_clusters);
total_time = toc;

%
% Calculate and show time statistics
%
evd_time = time2 - time1
kmeans_time = total_time - time2
total_time
disp('Finished!');


function cluster_labels = k_means(data, centers, num_clusters)
%K_MEANS Euclidean k-means clustering algorithm.
%
%   Input    : data           : N-by-D data matrix, where N is the number of data,
%                               D is the number of dimensions
%              centers        : K-by-D matrix, where K is num_clusters, or
%                               'random', random initialization, or
%                               [], empty matrix, orthogonal initialization
%              num_clusters   : Number of clusters
%
%   Output   : cluster_labels : N-by-1 vector of cluster assignment
%
%   Reference: Dimitrios Zeimpekis, Efstratios Gallopoulos, 2006.
%              http://scgroup.hpclab.ceid.upatras.gr/scgroup/Projects/TMG/

%
% Parameter setting
%
iter = 0;
qold = inf;
threshold = 0.001;

%
% Check if with initial centers
%
if strcmp(centers, 'random')
  disp('Random initialization...');
  centers = random_init(data, num_clusters);
elseif isempty(centers)
  disp('Orthogonal initialization...');
  centers = orth_init(data, num_clusters);
end

%
% Double type is required for sparse matrix multiply
%
data = double(data);
centers = double(centers);

%
% Calculate the distance (square) between data and centers
%
n = size(data, 1);
x = sum(data.*data, 2)';
X = x(ones(num_clusters, 1), :);
y = sum(centers.*centers, 2);
Y = y(:, ones(n, 1));
P = X + Y - 2*centers*data';

%
% Main program
%
while 1
  iter = iter + 1;

  % Find the closest cluster for each data point
  [val, ind] = min(P, [], 1);
  % Sum up data points within each cluster
  P = sparse(ind, 1:n, 1, num_clusters, n);
  centers = P*data;
  % Size of each cluster, for cluster whose size is 0 we keep it empty
  cluster_size = P*ones(n, 1);
  % For empty clusters, initialize again
  zero_cluster = find(cluster_size==0);
  if length(zero_cluster) > 0
    disp('Zero centroid. Initialize again...');
    centers(zero_cluster, :)= random_init(data, length(zero_cluster));
    cluster_size(zero_cluster) = 1;
  end
  % Update centers
  centers = spdiags(1./cluster_size, 0, num_clusters, num_clusters)*centers;

  % Update distance (square) to new centers
  y = sum(centers.*centers, 2);
  Y = y(:, ones(n, 1));
  P = X + Y - 2*centers*data';

  % Calculate objective function value
  qnew = sum(sum(sparse(ind, 1:n, 1, size(P, 1), size(P, 2)).*P));
  mesg = sprintf('Iteration %d:\n\tQold=%g\t\tQnew=%g', iter, full(qold), full(qnew));
  disp(mesg);

  % Check if objective function value is less than/equal to threshold
  if threshold >= abs((qnew-qold)/qold)
    mesg = sprintf('\nkmeans converged!');
    disp(mesg);
    break;
  end
  qold = qnew;
end

cluster_labels = ind';


%-----------------------------------------------------------------------------
function init_centers = random_init(data, num_clusters)
%RANDOM_INIT Initialize centroids choosing num_clusters rows of data at random
%
%   Input : data         : N-by-D data matrix, where N is the number of data,
%                          D is the number of dimensions
%           num_clusters : Number of clusters
%
%   Output: init_centers : K-by-D matrix, where K is num_clusters
rand('twister', sum(100*clock));
init_centers = data(ceil(size(data, 1)*rand(1, num_clusters)), :);

function init_centers = orth_init(data, num_clusters)
%ORTH_INIT Initialize orthogonal centers for k-means clustering algorithm.
%
%   Input : data         : N-by-D data matrix, where N is the number of data,
%                          D is the number of dimensions
%           num_clusters : Number of clusters
%
%   Output: init_centers : K-by-D matrix, where K is num_clusters

%
% Find the num_clusters centers which are orthogonal to each other
%
Uniq = unique(data, 'rows'); % Avoid duplicate centers
num = size(Uniq, 1);
first = ceil(rand(1)*num); % Randomly select the first center
init_centers = zeros(num_clusters, size(data, 2)); % Storage for centers
init_centers(1, :) = Uniq(first, :);
Uniq(first, :) = [];
c = zeros(num-1, 1); % Accumalated orthogonal values to existing centers for non-centers
% Find the rest num_clusters-1 centers
for j = 2:num_clusters
  c = c + abs(Uniq*init_centers(j-1, :)');
  [minimum, i] = min(c); % Select the most orthogonal one as next center
  init_centers(j, :) = Uniq(i, :);
  Uniq(i, :) = [];
  c(i) = [];
end
clear c Uniq;


个人的一点认识:谱聚类的过程相当于先进行一个非线性的降维,然后在这样的低维空间中再利用聚类的方法进行聚类。   欢迎大家一起讨论,如有问题欢迎留言,欢迎大家转载。


参考

1、从拉普拉斯矩阵说到谱聚类(http://blog.csdn.net/v_july_v/article/details/40738211)

2、(http://www.cnblogs.com/FengYan/archive/2012/06/21/2553999.html)

3、(http://www.cnblogs.com/sparkwen/p/3155850.html)

Read more

60个“特征工程”计算函数(Python代码)

60个“特征工程”计算函数(Python代码)

转自:coggle数据科学 近期一些朋友询问我关于如何做特征工程的问题,有没有什么适合初学者的有效操作。 特征工程的问题往往需要具体问题具体分析,当然也有一些暴力的策略,可以在竞赛初赛前期可以带来较大提升,而很多竞赛往往依赖这些信息就可以拿到非常好的效果,剩余的则需要结合业务逻辑以及很多其他的技巧,此处我们将平时用得最多的聚合操作罗列在下方。 最近刚好看到一篇文章汇总了非常多的聚合函数,就摘录在下方,供许多初入竞赛的朋友参考。 聚合特征汇总 pandas自带的聚合函数 * 其它重要聚合函数 其它重要聚合函数&分类分别如下。 def median(x):     return np.median(x) def variation_coefficient(x):     mean = np.mean(x)     if mean != 0:         return np.std(x) / mean     else:         return np.nan def variance(x):     return

By Ne0inhk
90w,确实可以封神了!

90w,确实可以封神了!

要说24年一定最热的技术,还得是AIGC! 前段时间阿里旗下的开源项目,登上GitHub热榜! AI大热,如今ChatGPT的优异表现,必然会出现各种细分场景应用的工具软件,和大量岗位项目! 山雨欲来风满楼,强人工智能的出现,所有科技公司已经开始巨量扩招此领域的人才。算法的岗位,近三个月已经增长68%!这件事在HR届也是相当震撼的。 目前各行各业都不景气的市场,人工智能岗位却一直保持常青!甚至同属AI边缘岗都比其他岗薪资高40%! 与此同时,AI算法岗上岸也不简单,竞争激烈,好公司核心岗位不用说,谁都想去。 所以事实就是,想要上岸,门槛也逐渐变高,项目经历、实习经历都很重要,越早明白这个道理就越能提前建立起自己的优势。 但我在b站逛知识区的时候,经常看到有些同学,因为一些客观原因导致无法参加实习,这种情况下,如果你想提升背景,增加项目经历的话,可以试试这个《CV/NLP 算法工程师培养计划》。 目前已经有上千位同学通过该计划拿到offer了,最新一期学员就业薪资最高能拿到78K!年薪94w! 优势就是有BAT大厂讲师带领,手把手带做AI真实企业项目(包含CV、NLP等

By Ne0inhk
再见nohup!试试这个神器,Python Supervisor!

再见nohup!试试这个神器,Python Supervisor!

👇我的小册 45章教程:() ,原价299,限时特价2杯咖啡,满100人涨10元。 作者丨Ais137 https://juejin.cn/post/7354406980784373798 1. 概述 Supervisor 是一个 C/S 架构的进程监控与管理工具,本文主要介绍其基本用法和部分高级特性,用于解决部署持久化进程的稳定性问题。 2. 问题场景 在实际的工作中,往往会有部署持久化进程的需求,比如接口服务进程,又或者是消费者进程等。这类进程通常是作为后台进程持久化运行的。 一般的部署方法是通过 nohup cmd & 命令来部署。但是这种方式有个弊端是在某些情况下无法保证目标进程的稳定性运行,有的时候 nohup 运行的后台任务会因为未知原因中断,从而导致服务或者消费中断,进而影响项目的正常运行。 为了解决上述问题,通过引入 Supervisor 来部署持久化进程,提高系统运行的稳定性。 3. Supervisor 简介 Supervisor is a client/

By Ne0inhk
第一本给程序员看的AI Agent图书上市了!

第一本给程序员看的AI Agent图书上市了!

AI Agent火爆到什么程度? OpenAI创始人奥特曼预测,未来各行各业,每一个人都可以拥有一个AI Agent;比尔·盖茨在2023年层预言:AI Agent将彻底改变人机交互方式,并颠覆整个软件行业;吴恩达教授在AI Ascent 2024演讲中高赞:AI Agent是一个令人兴奋的趋势,所有从事AI开发的人都应该关注。而国内的各科技巨头也纷纷布局AI Agent平台,如:钉钉的AI PaaS、百度智能云千帆大模型平台等等。 Agent 是未来最重要的智能化工具。对于程序员来说,是时候将目光转向大模型的应用开发了,率先抢占AI的下一个风口AI Agent。 小异带来一本新书《大模型应用开发 动手做 AI Agent》,这本书由《GPT图解》的作者黄佳老师创作,从0到1手把手教你做AI Agent。现在下单享受5折特惠! ▼点击下方,即可5折起购书 有这样一本秘籍在手,程序员们这下放心了吧,让我们先来揭开 Agent 的神秘面纱。 AI Agent 面面观

By Ne0inhk