Python sklearn中的K-Means聚类如何使用(k-means,python,sklearn,开发技术)

时间:2024-05-05 14:40:09 作者 : 石家庄SEO 分类 : 开发技术
  • TAG :

初步认识

k-means翻译过来就是K均值聚类算法,其目的是将样本分割为k个簇,而这个k则是KMeans中最重要的参数:n_clusters,默认为8。

下面做一个最简单的聚类

importnumpyasnp
importmatplotlib.pyplotasplt
fromsklearn.clusterimportKMeans
fromsklearn.datasetsimportmake_blobs
X,y=make_blobs(1500)
fig=plt.figure()
foriinrange(2):
ax=fig.add_subplot(1,2,i+1)
y=KMeans(i+2).fit_predict(X)
plt.scatter(X[:,0],X[:,1],c=y)
plt.show()

其中,y是聚类结果,其数值表示对应位置X所属类号。

效果如图所示,对于下面这组数据来说,显然最好是分为两类,但如果KMeansn_clusters设为3,那就会聚成3类。

Python sklearn中的K-Means聚类如何使用

上面调用的KMeans是一个类,sklearn中同样提供了函数形式的调用,其使用方法如下

fromsklearn.clusterimportk_means
cen,y,interia=k_means(X,3)

其中,cen表示聚类后,每一类的质心;y为聚类后的标签;interia表示均方误差之和。

初值选取

KMeans最重要的概念是簇,也就是被分割后的数据种类;而每个簇都有一个非常重要的点,就是质心。在设定好簇的个数之后,也就相当于确定了质心的个数,而KMeans算法的基本流程是

  • 选择k个点作为k个簇的初始质心

  • 计算样本到这k个质心(簇)的距离,并将其划入距离最近的簇中

  • 计算每个簇的均值,并使用该均值更新簇的质心

重复上述2-3的操作,直到质心区域稳定或者达到最大迭代次数。

从这个流程可以看出来,KMeans算法至少有两个细节需要考虑,一个是初始化方案,另一个则是质心更新的方案。

KMeans类或者k_means函数中,提供了两种初始化质心方案,通过参数init来控制

  • 'random':表示随机生成k个质心

  • 'k-means++':此为默认值,通过kMeans++方法来初始化质心。

kMeans++初始化质心的流程如下

  • 随机选择1个点作为初始质心 x 0

  • 计算其他点到最近质心的距离

  • 假定现有 n n n个质心了,那么选择距离当前质心较远的点作为下一个质心 x n x_n xn

重复步骤2和3,直到质心个数达到 k k k个。

若希望直接调用kMeans++函数,则可使用kmeans_plusplus

小批

sklearn提供了KMeans的一个变种MiniBatchKMeans,可在每次训练迭代中随机抽样,这种小批量的训练过程大大减少了运算时间。

当样本量非常巨大时,小批KMeans的优势是非常明显的

fromsklearn.clusterimportMiniBatchKMeans
importtime
ys,xs=np.indices([4,4])*6
cens=list(zip(xs.reshape(-1),ys.reshape(-1)))
X,y=make_blobs(100000,centers=cens)
km=KMeans(16)
mbk=MiniBatchKMeans(16)
deftest(func,value):
t=time.time()
func(value)
print("耗时",time.time()-t)
test(km.fit_predict,X)

耗时3.2028110027313232

test(mbk.fit_predict,X)

耗时0.2590029239654541

可见效果非常明显,其中fit_predictpredict相似,但并没有返回值,km.fitpredict(X)运行之后,会更改km中的labels属性,此即分类结果

fig=plt.figure()

ax=fig.addsubplot(1,2,1)
ax.scatter(X[:,0],X[:,1],c=km.labels
,
marker='.',alpha=0.5)
ax=fig.addsubplot(1,2,2)
ax.scatter(X[:,0],X[:,1],c=mbk.labels
,
marker='.',alpha=0.5)
plt.show()

效果如图所示,可见小批的KMeans算法和KMeans算法从结果上来看区别不大。

Python sklearn中的K-Means聚类如何使用

本文:Python sklearn中的K-Means聚类如何使用的详细内容,希望对您有所帮助,信息来源于网络。
上一篇:Android中的线程和线程池有什么作用下一篇:

6 人围观 / 0 条评论 ↓快速评论↓

(必须)

(必须,保密)

阿狸1 阿狸2 阿狸3 阿狸4 阿狸5 阿狸6 阿狸7 阿狸8 阿狸9 阿狸10 阿狸11 阿狸12 阿狸13 阿狸14 阿狸15 阿狸16 阿狸17 阿狸18