复现 Nature 图表——基于PCA的高维数据降维与可视化实践及其扩展

大模型数据安全机器学习

picture.image

背景

在数据分析领域,高维数据的可视化是一个关键挑战,而主成分分析(PCA)作为一种常用的数据降维工具,提供了将高维数据映射到二维或三维空间的直观方式, 本次复现基于Nature 发表的一项研究中的图 a 部分

picture.image

重点是展示如何使用 PCA 对高维数据进行降维可视化,并通过边缘密度图等扩展方法丰富数据的表达效果,揭示样本的聚类模式,以更直观地理解数据的结构和潜在模式

代码实现

数据准备


          
import pandas as pd
          
import numpy as np
          
import matplotlib.pyplot as plt
          
from sklearn.model_selection import train_test_split
          
plt.rcParams['font.family'] = 'Times New Roman'
          
plt.rcParams['axes.unicode_minus'] = False
          
import warnings
          
warnings.filterwarnings("ignore")
          
from sklearn.datasets import load_iris
          
# 鸢尾花数据集
          
iris = load_iris()
          
df_iris = pd.DataFrame(data=iris.data, columns=iris.feature_names)
          
df_iris['target'] = iris.target
          
df_iris
      

picture.image

利用鸢尾花数据集进行文献的高维数据可视化复现,鸢尾花数据集包含 4 个特征,原始数据在二维或三维空间中无法完整展示其结构特征,下面可以通过 PCA 降维 将数据维度降低,同时尽可能保留其信息,以便直观呈现不同类别的数据分布

PCA降维


          
from sklearn.decomposition import PCA
          
df_selected = df_iris.iloc[:, 0:4]
          
# 创建PCA对象,设置提取2个主成分
          
pca = PCA(n_components=2)
          
# 进行PCA降维
          
pca_result = pca.fit_transform(df_selected)
          
# 获取解释方差比率(贡献度)
          
explained_variance = pca.explained_variance_ratio_
          
# 将PCA结果保存为DataFrame,并用贡献度标记列名
          
pca_df = pd.DataFrame(pca_result, columns=[f"PC1 ({explained_variance[0]*100:.2f}%)", 
          
                                           f"PC2 ({explained_variance[1]*100:.2f}%)"])
          
pca_df
      

picture.image

使用 PCA(主成分分析) 将鸢尾花数据集的 4 个特征降维为 2 个主成分,并计算每个主成分的方差贡献率,以便在二维空间中保留尽可能多的数据信息进行可视化展示

基础PCA降维可视化


          
# 将PCA后的数据与原始的分类标签合并
          
pca_df_with_label = pd.concat([pca_df, df_iris['target']], axis=1)
          
# 不同类别进行区分
          
categories = pca_df_with_label['target'].unique()
          
# 为不同类别设置颜色
          
colors = ['green', 'purple', 'blue']
          
# 创建散点图
          
plt.figure(figsize=(9, 9),dpi=1200)
          
# 为每个类别绘制散点图,使用不同颜色,透明度
          
for i, category in enumerate(categories):
          
    subset = pca_df_with_label[pca_df_with_label['target'] == category]
          
    plt.scatter(subset.iloc[:, 0], subset.iloc[:, 1], label=f'Category {category}', color=colors[i], alpha=0.3)
          
# 设置图表标题和轴标签
          
plt.title('PCA Scatter Plot by target')
          
plt.xlabel(pca_df.columns[0])
          
plt.ylabel(pca_df.columns[1])
          
plt.legend()
          
plt.savefig("1.pdf", format='pdf', bbox_inches='tight')
          
plt.show()
      

picture.image

将 PCA 降维后的数据与鸢尾花数据集的标签列(target)合并,并根据不同类别(0, 1, 2)绘制了二维散点图,每个类别用不同颜色(绿色、紫色、蓝色)表示,并设置了透明度以更清晰地展示数据的重叠情况,通过图表,可以看到不同类别在二维空间中的分布,其中 PC1(92.46%) 和 PC2(5.31%) 是两个主要的主成分,分别展示了数据中的主要和次要变异趋势。可视化结果表明,不同类别的样本在降维后的二维空间中形成了清晰的聚类,显示出数据结构的内在模式和类别间的可分性

带边缘密度分布的 PCA 降维可视化


          
import seaborn as sns
          
# 设置调色板为绿、紫、蓝三种颜色
          
palette = ['green', 'purple', 'blue']
          
# 创建 JointGrid 对象
          
g = sns.JointGrid(data=pca_df_with_label, x=pca_df.columns[0], y=pca_df.columns[1], hue='target', palette=palette)
          
# 绘制散点图,移除图例
          
g.plot_joint(sns.scatterplot, s=40, alpha=0.3, legend=False)
          
# 绘制 x 轴的边缘密度图,移除图例
          
sns.kdeplot(data=pca_df_with_label, x=pca_df.columns[0], hue='target', ax=g.ax_marg_x, fill=True, common_norm=False, palette=palette, alpha=0.3, legend=False)
          
# 绘制 y 轴的边缘密度图,移除图例
          
sns.kdeplot(data=pca_df_with_label, y=pca_df.columns[1], hue='target', ax=g.ax_marg_y, fill=True, common_norm=False, palette=palette, alpha=0.3, legend=False)
          
g.fig.suptitle('PCA Scatter Plot with Stacked Marginal Density')
          
plt.savefig("2.pdf", format='pdf', bbox_inches='tight', dpi=1200)
          
plt.show()
      

picture.image

通过 Seaborn 将 PCA 降维后的数据绘制为散点图,并在顶部和右侧叠加了类别密度曲线,以展示各类数据在主成分轴上的分布趋势与重叠情况,相比于单纯的散点图,这种可视化方式增加了每个类别的边缘分布信息,使数据的分布特点更加直观清晰,通过此实现,就成功复现了文献中的高维数据降维可视化效果,这正是高维数据经过 PCA 降维后在二维空间中的优化展示

带二维核密度估计的 PCA 降维可视化


          
# 不同类别进行区分
          
categories = pca_df_with_label['target'].unique()
          

          
# 为每个类别设置颜色,分别为黄、紫、蓝
          
colors = ['green', 'purple', 'blue']
          

          
# 创建散点图和边缘密度图
          
plt.figure(figsize=(9, 9), dpi=1200)
          

          
# 为每个类别绘制散点图,使用不同颜色
          
for i, category in enumerate(categories):
          
    subset = pca_df_with_label[pca_df_with_label['target'] == category]
          
    plt.scatter(subset.iloc[:, 0], subset.iloc[:, 1], label=f'Category {category}', color=colors[i], alpha=0.3)
          
    
          
    # 绘制边缘密度图(二维核密度估计),使用相同颜色
          
    sns.kdeplot(x=subset.iloc[:, 0], y=subset.iloc[:, 1], color=colors[i], shade=True, thresh=0.05, alpha=0.3)
          

          
# 设置图表标题和轴标签
          
plt.title('PCA Scatter Plot with Marginal Density by target')
          
plt.xlabel(pca_df.columns[0])
          
plt.ylabel(pca_df.columns[1])
          
plt.legend(title='Categories')
          
plt.savefig("3.pdf", format='pdf', bbox_inches='tight')
          
plt.show()
      

picture.image

结合散点图和 二维核密度估计 (KDE),在展示数据点的同时,通过核密度轮廓进一步揭示了不同类别的分布趋势和集中区域,帮助更清晰地观察类别间的重叠与分离情况。这种可视化方式是 PCA 可视化的扩展,通过增加密度信息,使数据的分布特征在降维空间中得到更全面的表达

PCA 双标图 (Biplot) 降维可视化


          
labels = df_iris['target']  # 类别标签列
          
# 定义类别的颜色映射
          
categories = labels.unique()
          
colors = ['green', 'purple', 'blue']
          
color_map = {category: color for category, color in zip(categories, colors)}
          
# 创建双标图
          
plt.figure(figsize=(10, 7), dpi=1200)
          
# 绘制样本的散点图,使用类别的颜色映射
          
for category in categories:
          
    subset = pca_df[labels == category]
          
    plt.scatter(subset.iloc[:, 0], subset.iloc[:, 1], alpha=0.5, color=color_map[category], label=f'Category {category}')
          
# 获取PCA组件(特征向量)
          
components = pca.components_
          
# 绘制特征向量(箭头)
          
for i, feature in enumerate(df_selected.columns):
          
    plt.arrow(0, 0, components[0, i] * max(pca_result[:, 0]), components[1, i] * max(pca_result[:, 1]), 
          
              color='red', head_width=0.1, head_length=0.1)
          
    plt.text(components[0, i] * max(pca_result[:, 0]) * 1.1, 
          
             components[1, i] * max(pca_result[:, 1]) * 1.1, 
          
             feature, color='black')
          

          
# 设置轴标签,并调整标签的位置
          
plt.xlabel(f"PC1 ({explained_variance[0]*100:.2f}%)", labelpad=180)  # x轴标签设置下方
          
plt.ylabel(f"PC2 ({explained_variance[1]*100:.2f}%)", labelpad=240)  # y轴标签设置左侧
          
# 只显示 x 轴和 y 轴,不显示网格,并确保轴正确放置
          
plt.gca().spines['top'].set_visible(False)
          
plt.gca().spines['right'].set_visible(False)
          
plt.gca().spines['bottom'].set_position('zero')
          
plt.gca().spines['left'].set_position('zero')
          
plt.legend()
          
plt.savefig("4.pdf", format='pdf', bbox_inches='tight')
          
plt.show()
      

picture.image

PCA 双标图,在展示不同类别样本散点分布的同时,用箭头表示每个特征在主成分空间中的投影方向及其对主成分的贡献大小,帮助理解各特征在数据降维中的作用。这种双标图进一步丰富了 PCA 可视化的表现力,是对基础散点图的扩展,揭示了特征与样本之间的关系

总结

通过上述多种 PCA 可视化方法的展示,读者可以根据自身的分析需求选择合适的绘图方式,同时,不同的可视化方法还可以灵活组合,例如在绘制 PCA 双标图的同时,叠加二维核密度估计或边缘密度分布,以进一步丰富数据的表达效果,这些可视化不仅能够帮助更直观地理解数据结构,还能揭示特征与类别之间的潜在关系,此外,虽然 PCA 是常用的降维方法,但它并非唯一选择,读者还可以尝试 t-SNE 等其他降维技术,根据数据特点和分析需求选择最适合的方法进行可视化与解读

往期推荐

SCI图表复现:整合数据分布与相关系数的高级可视化策略

复现顶刊Streamlit部署预测模型APP

树模型系列:如何通过XGBoost提取特征贡献度

SHAP进阶解析:机器学习、深度学习模型解释保姆级教程

特征选择:Lasso和Boruta算法的结合应用

从基础到进阶:优化SHAP力图,让样本解读更直观

SCI图表复现:优化SHAP特征贡献图展示更多模型细节

多模型中的特征贡献度比较与可视化图解

SCI图表复现:特征相关性气泡热图展示

基于SHAP值的 BorutaShap 算法在特征选择中的应用与优化

复现SCI文章 SHAP 依赖图可视化以增强机器学习模型的可解释性

picture.image

picture.image

picture.image

微信号|deep_ML

欢迎添加作者微信进入Python、ChatGPT群

进群请备注Python或AI进入相关群

无需科学上网、同步官网所有功能、使用无限制

如果你对类似于这样的文章感兴趣。

欢迎关注、点赞、转发~

个人观点,仅供参考

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论