层次聚类——以凝聚型层次聚类为例讲解(易懂版)
创作时间:
作者:
@小白创作中心
层次聚类——以凝聚型层次聚类为例讲解(易懂版)
引用
CSDN
1.
https://blog.csdn.net/weixin_74268817/article/details/143821824
层次聚类是一种将数据集逐步划分为层次结构的方法,是一种无监督学习方法最终形成一颗树状图(dendrogram),可以直观地表示不同数据点之间的聚类关系。它是一种无监督学习方法。
层次聚类的两种方法
- 凝聚型(自底向上):这是最常见的方法,从每个数据点开始,将它们作为单独的簇。然后,逐步合并最相似的簇,直到所有数据点都被合并成一个簇,或者达到设定的停止条件。
- 分裂型(自顶向下):与凝聚型相反,分裂型聚类从整个数据集开始,然后将其分割成更小的簇,逐步细分,直到每个簇只包含一个数据点或达到某个停止条件。
这里,我们详细讲解凝聚型层次聚类的原理。
凝聚型层次聚类
距离度量方法:
- 欧氏距离:是最常见的距离度量,用于度量两点之间的直线距离,常见于低维数据,尤其适用于球形簇结构。
- 曼哈顿距离:是另一个常用的距离度量,适合于矩形格局的数据(如网格结构的数据),计算的是两点在坐标轴上的绝对距离之和。
- 其他距离度量:如余弦相似度、马氏距离等,也可以在不同的应用场景中替代欧氏距离。
后文均以欧氏距离讲解。
聚合准则(合并策略):
- 单链聚类: 在此方法中,两个簇之间的距离是簇中任意两个点之间的最小距离:
这种方法容易受到离群点的影响。 - 全链聚类: 在此方法中,两个簇之间的距离是簇中任意两个点之间的最大距离:
这种方法产生的簇较为紧凑,较不容易出现离群点。 - 均值链接: 计算簇之间所有点对的平均距离:
这种方法是单链和全链的折中。 - Ward法: 该方法基于簇内的方差来判断合并的方式,目标是最小化每次合并所增加的方差。两个簇合并后,新的簇的总方差是最小的。对于两个簇 A 和 B,计算合并后的簇的总方差,其公式为:
主要步骤:
- 计算所有数据点之间的欧式距离。
- 将每个数据点作为一个独立的簇。
- 计算簇间的距离(相似度),合并距离最近(最相似)的两个簇。(贪心算法)
- 重复步骤3,直到所有数据点都合并成一个簇或达到终止条件。
- 绘制树状图,观察不同簇合并的层次结构。
树状图可视化:
# 导包
import numpy as np
from scipy.cluster.hierarchy import linkage, dendrogram, fcluster
import matplotlib.pyplot as plt
# 创建示例数据
np.random.seed(42)
data = np.random.rand(10, 2) # 10个样本,2个特征
# Ward聚类准则为例,进行层次聚类
linkage_matrix = linkage(data, method='ward')
# 3. 绘制树状图(Dendrogram)
plt.figure(figsize=(8, 4))
dendrogram(linkage_matrix)
plt.title('Dendrogram')
plt.xlabel('Sample Index')
plt.ylabel('Distance')
plt.show()
树状图怎么看?
这样看,第2个和第7个样本点,他们距离最近,合并为同一簇,接着到3和5,合并为同一簇,...。整一个树状图为一个由所以样本点构成的簇,我们根据需要进行划分为k个簇。比如我们在distance=1.1这里截断树状图,那么就划分为035,2789617两个簇;如果在distance=0.7这里截断树状图,就可以划分为035,2789,614三个簇。我们一般选择距离差较大的来划分,比如1.2和0.4之间相差很大,我们需要从这里截断。截断处理一般通过设置一个阈值实现,比如0.5,两个簇之间的距离超过0.5这个阈值就截断,即不再进行合并簇。
簇的数量的选择
情况1(固定需求):如果我们任务需求已经确定要分为3个类别,就直接将簇的数量设置为3个簇,不需要可视化树状图,默认按最佳划分直接得出分类结果。
情况2(不知道分几类):我们不知道要分为几个类别时,就需要根据树状图分析,选择合适的阈值进行划分。
我们看代码实现:
# 或根据指定的簇数量分割(情况1)
num_clusters = 2
labels_by_cluster = fcluster(linkage_matrix, t=num_clusters, criterion='maxclust')
# 根据距离阈值分割(情况2)
threshold = 0.5
labels = fcluster(linkage_matrix, t=threshold, criterion='distance')
# 输出聚类结果
print("基于簇数量的聚类结果:", labels_by_cluster)
print("基于距离阈值的聚类结果:", labels)
# 输出如下:
# 基于簇数量的聚类结果: [1 2 2 1 2 1 2 2 2 2]
# 基于距离阈值的聚类结果: [1 3 2 1 3 1 4 2 2 2]
应用场景
- 生物信息学: 分析基因表达模式或序列相似性。
- 市场细分: 根据客户特征划分客户群。
- 文档分类: 根据文档相似性组织文档层次。
- 图像分割: 通过像素特征对图像进行分块。
- 异常检测: 寻找与其他簇相异的数据点。
层次聚类优缺点:
优点:
- 直观性强:通过树状图 (dendrogram) 可以清晰地展示数据点的聚类过程,帮助分析数据的层次结构。
- 可以不用预设簇数:不像 K-means 聚类需要预先指定簇的数量,层次聚类可以通过不同的截断方式调整簇数量。
- 适用于非球形分布:层次聚类可以处理形状复杂的簇(如长条形或非线性分布),相比 K-means 更加灵活。
- 适用小数据集:层次聚类在处理小数据集时非常有效,能够生成详细的聚类关系。
- 支持多种距离度量方法
缺点:
- 计算复杂度高:层次聚类的时间复杂度通常为
,在大规模数据集上计算量较大。存储复杂度也较高,尤其是在需要保存距离矩阵的情况下。 - 对噪声和离群点敏感:噪声数据和异常值可能会显著影响聚类结果,导致某些簇的质量下降。
- 不可逆性:层次聚类是贪心算法,聚类过程中做出的错误决定无法回溯或修正。
- 难以扩展到大数据集:随着数据量增大,计算距离矩阵和构建树状图的代价过高,导致性能瓶颈。
- 缺乏优化目标:不像 K-means 或 GMM 聚类有明确的优化目标(如最小化簇内误差平方和),层次聚类的结果可能难以量化和比较。
热门推荐
刘禹锡:才华横溢的唐代诗人,政治生涯跌宕起伏
爱出汗易感冒易疲劳如何调理好
怎样写净身出户才有法律效益
花都区花城街以居民习惯养成为核心,提升居民生活垃圾精准分类率
法院笔录算证据吗?一文详解法院笔录的法律效力
PCIe各代次传输速率详解:从Gen3到Gen6的技术演进
汪品先:我们真的了解地球吗?谁在搅动它?
知识框架的构建方法
安全工程师考点太多记不住怎么办?有什么学习方法?
中国网民数破9亿:72.4%月收入不足5000元 约6.5亿
罗马队史传奇:拉涅利以56%胜率跻身意甲最佳教练之列
肺部磨玻璃影的治疗方法
农商行面临的竞争形势
怎样调理焦虑抑郁状态
瘦子吃蛋白质粉可以长胖吗
女性如何在恋爱中提升个人价值?
厨房地面防滑选什么?
黄巢起义:唐朝末年的农民抗争
无力偿还信用卡新政策怎么办
戴VR眼镜排隐患,上地震体验车学逃生,用AI沉浸式安全教育|新学期新气象
泰兴公安智慧侦查中心:“数据”变“数智”,推动公安核心战斗力提档升级!
被雨淋了头疼怎么办?医生给出专业建议
一个水煮蛋的热量:低卡高蛋白的营养之选
道教知识|戊不朝真|2025年道教明暗戊日表【建议收藏】
国风音乐:用时尚方式唱出中国味道
纪念|谢芳:她塑造了新中国大银幕上首个知性女子形象
毕业就是公务员的五大官校是哪五个?直接当公务员的大学
溃疡性结肠炎是什么引起的
河南信阳:向“新”而行 以“质”取胜
来一场武威之旅,体验不一样的西北民俗风情