机器学习 - 层次聚类
在本页面中,W3schools.com 与 NYC 数据科学学院 合作,为我们的学生提供数字培训内容。
层次聚类
层次聚类是一种无监督学习方法,用于对数据点进行聚类。该算法通过测量数据之间的差异来构建聚类。无监督学习意味着模型不需要进行训练,我们不需要“目标”变量。此方法可用于任何数据,以可视化和解释单个数据点之间的关系。
在这里,我们将使用层次聚类来对数据点进行分组,并使用树状图和散点图来可视化这些聚类。
它是如何工作的?
我们将使用凝聚层次聚类,一种自下而上的层次聚类类型。我们首先将每个数据点视为一个独立的聚类。然后,我们将距离最近的聚类连接在一起,以创建更大的聚类。重复此步骤,直到形成一个包含所有数据点的较大聚类。
层次聚类需要我们确定距离和连接方法。我们将使用欧几里得距离和 Ward 连接方法,该方法试图最小化聚类之间的方差。
示例
首先可视化一些数据点
import numpy as np
import matplotlib.pyplot as plt
x = [4, 5, 10, 4, 3, 11, 14 , 6, 10, 12]
y = [21, 19, 24, 17, 16, 25, 24, 22, 21, 21]
plt.scatter(x, y)
plt.show()
结果
运行示例 »广告
现在我们使用欧几里得距离计算病房连接,并使用树状图将其可视化
示例
import numpy as np
import matplotlib.pyplot as plt
from scipy.cluster.hierarchy import dendrogram, linkage
x = [4, 5, 10, 4, 3, 11, 14 , 6, 10, 12]
y = [21, 19, 24, 17, 16, 25, 24, 22, 21, 21]
data = list(zip(x, y))
linkage_data = linkage(data, method='ward', metric='euclidean')
dendrogram(linkage_data)
plt.show()
结果
运行示例 »示例
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import AgglomerativeClustering
x = [4, 5, 10, 4, 3, 11, 14 , 6, 10, 12]
y = [21, 19, 24, 17, 16, 25, 24, 22, 21, 21]
data = list(zip(x, y))
hierarchical_cluster = AgglomerativeClustering(n_clusters=2, affinity='euclidean', linkage='ward')
labels = hierarchical_cluster.fit_predict(data)
plt.scatter(x, y, c=labels)
plt.show()
结果
运行示例 »示例说明
导入您需要的模块。
import numpy as np
import matplotlib.pyplot as plt
from scipy.cluster.hierarchy import dendrogram, linkage
from sklearn.cluster import AgglomerativeClustering
您可以在我们的 "Matplotlib 教程" 中了解 Matplotlib 模块。
您可以在我们的 SciPy 教程 中了解 SciPy 模块。
NumPy 是一个用于在 Python 中处理数组和矩阵的库,您可以在我们的 NumPy 教程 中了解 NumPy 模块。
scikit-learn 是一个流行的机器学习库。
创建类似于数据集中两个变量的数组。请注意,虽然我们这里只使用两个变量,但这种方法适用于任何数量的变量
x = [4, 5, 10, 4, 3, 11, 14 , 6, 10, 12]
y = [21, 19, 24, 17, 16, 25, 24, 22, 21, 21]
将数据转换为一组点
data = list(zip(x, y))
print(data)
结果
[(4, 21), (5, 19), (10, 24), (4, 17), (3, 16), (11, 25), (14, 24), (6, 22), (10, 21), (12, 21)]
计算所有不同点之间的连接。这里我们使用简单的欧几里得距离度量和 Ward 连接,它试图最小化簇之间的方差。
linkage_data = linkage(data, method='ward', metric='euclidean')
最后,将结果绘制在树状图中。此图将向我们展示从底部(单个点)到顶部(包含所有数据点的单个簇)的簇层次结构。
plt.show()
使我们能够可视化树状图,而不仅仅是原始连接数据。
dendrogram(linkage_data)
plt.show()
结果
scikit-learn 库允许我们以不同的方式使用层次聚类。首先,我们使用相同的欧几里得距离和 Ward 连接初始化 AgglomerativeClustering
类,并包含 2 个簇。
hierarchical_cluster = AgglomerativeClustering(n_clusters=2, affinity='euclidean', linkage='ward')
.fit_predict
方法可以在我们的数据上调用,以使用定义的参数在我们选择的簇数量上计算簇。
labels = hierarchical_cluster.fit_predict(data) print(labels)
结果
[0 0 1 0 0 1 1 0 1 1]
最后,如果我们绘制相同的数据并使用层次聚类方法分配给每个索引的标签对点进行颜色编码,我们可以看到每个点被分配到的簇
plt.scatter(x, y, c=labels)
plt.show()
结果