关注
K-means优化:
k-means++:假设已经选取了n个初始聚类中心(0<n<k),则在选取第n+1个聚类中心时:距离当前n个聚类中心越远的点会有更高的概率被选为第n+1个聚类中心,在选取第一个聚类中心(n=1)时同样通过随机的方法。可以说这也符合我们的直觉:聚类中心当然是互相离得越远越好。
ISODATA:类别数目随着聚类过程而变化,对类别数的‘合并’(当聚类结果某一类中样本数太少,或两个类间聚类太近),‘分裂’(当聚类结果中某一类的内方差太大,将该类进行分裂)。
Kernel K-means:将每个样本进行一个投射到高维空间的处理,然后再将处理后的数据使用普通的K-means算法进行聚类。
二分K-means:将所有的点作为一个簇,然后将该簇一分为二。之后选择能最大限度降低聚类代价函数(也就是误差平方和)和簇划分为两个簇,依次进行下去,知道簇的数目等于用户给定的数目K为止。隐含的一个原则是:因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于他们的质心,聚类效果就越好。所有我们就需要对误差平方和最大的簇进行再一次划分,因为误差平方和越大,表示这个簇的聚类效果越不好,越有可能是多个簇被当成了一个簇,所有我们首先需要对这个簇进行划分。二分K均值算法可以加速K-means算法的执行速度,因为它的相似度计算少了不受初始化问题的影响,因为这里不存在随机点的选取,且每一个都保证了误差最小。
Mini Batch K-means(适合大数据的聚类算法):通过样本量大于一万做聚类时,需要考虑选用此算法。他使用了一种叫做Mini Batch(分批处理)的方法对数据点之间的距离进行计算。Mini Batch的好处是计算过程中不必使用所有的数据样本,二十从不同类别的样本中抽取一部分样本来代表各自类型进行计算。由于计算样本量少,所以会相应的减少运行时间,但另一方面抽样也必然会带来准确度的下降。
查看原帖
4 评论
相关推荐
04-23 18:58
门头沟学院 电子信息类 点赞 评论 收藏
转发
投递文远知行等公司7个岗位
点赞 评论 收藏
转发
点赞 评论 收藏
转发
牛客热帖
正在热议
# 牛友的五一计划 #
7102次浏览 190人参与
# 如何一边实习一边秋招 #
199525次浏览 3975人参与
# 牛客帮帮团来啦!有问必答 #
387364次浏览 7683人参与
# 如何看待offer收割机的行为 #
191598次浏览 2963人参与
# 春招别灰心,我们一人来一句鼓励 #
20372次浏览 301人参与
# 无实习如何秋招上岸 #
170749次浏览 2698人参与
# 硬件人的春招flag #
14445次浏览 199人参与
# 晒一晒我的offer #
2807746次浏览 49774人参与
# 非技术岗薪资爆料 #
7188次浏览 141人参与
# 你更愿意参加线上面试还是线下面试? #
6648次浏览 92人参与
# 华为求职进展汇总 #
439803次浏览 4420人参与
# 第一次面试 #
15930次浏览 242人参与
# 在国企工作的人,躺平了吗? #
72066次浏览 874人参与
# 简历中的项目经历要怎么写 #
379098次浏览 6375人参与
# 通信硬件薪资爆料 #
145983次浏览 1099人参与
# 来聊聊机械薪资天花板是哪家 #
21400次浏览 169人参与
# 机械人怎么评价今年的华为 #
54397次浏览 449人参与
# 应届生应该先就业还是先择业 #
12250次浏览 115人参与
# 如果校招重来我最想改变的是 #
71869次浏览 1384人参与
# 租房前辈的忠告 #
21026次浏览 1668人参与