✨ 欢迎关注Python机器学习AI ✨
本节介绍: 不同机器学习方法在目标域测试集上的散点核密度图 。数据采用模拟数据,作者根据个人对机器学习的理解进行代码实现与图表输出,细节并不保证与原文一定相同,仅供参考。 详细数据和代码、文献将在稍后上传至交流群,付费成员可在交流群中获取下载。需要的朋友可关注公众文末提供的购买方式。 购买前请咨询,避免不必要的问题。 文末点赞、推荐、转发参与免费包邮赠书~
✨ 文献信息 ✨
这张图展示了两种转移学习方法在目标领域测试集上的预测结果,其中图(a)表示传统转移学习方法,图(b)展示了所提方法的效果。通过对比RMSE、MAE和R²等评价指标,以及95%预测带、y = x线和回归线,展示两种方法在气体产量预测中的性能差异。主要目的是展示回归算法在测试集上的表现。接下来将在模拟数据集上进行简单的机器学习模型构建,复现这张图表的可视化效果
✨ 模拟结果 ✨
这张图展示了对文献的可视化复现,左图和右图的主要区别在于,左图的95%预测带、y = x线和回归线没有填满整个画布,而右图填满了画布,使图表与文献中的结果一致,读者自行选择即可,二者所想表达的信息是一致的
✨ 初级代码 ✨
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
plt.rcParams['font.family'] = 'Times New Roman'
plt.rcParams['axes.unicode_minus'] = False
import warnings
# 忽略所有警告
warnings.filterwarnings("ignore")
path = r"seattle_sample_all.csv"
df = pd.read_csv(path, index_col=0)
from sklearn.model_selection import train_test_split
# 划分特征和目标变量
X = df.drop(['log_price', 'UTM_X', 'UTM_Y'], axis=1)
y = df['log_price']
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
from catboost import CatBoostRegressor
from sklearn.metrics import mean_squared_error, r2_score
# 初始化CatBoost回归模型
model = CatBoostRegressor(iterations=500, # 设置迭代次数
depth=6, # 树的深度
learning_rate=0.1,# 学习率
loss_function='RMSE', # 使用RMSE损失函数
cat_features=[], # 如果有类别特征可以在此处指定
verbose=False
)
# 训练模型
model.fit(X_train, y_train)
这段代码使用 CatBoostRegressor 训练了一个回归模型来预测 log_price,其输入特征是从数据集中提取的除 log_price, UTM_X, UTM_Y 外的其他特征。数据集被划分为训练集和测试集,模型通过训练集学习,并且没有进行调参优化,仅设置了基本的模型超参数,如迭代次数、树的深度和学习率。该模型的主要目的是为了可视化,实际上在实际应用中,模型需要进一步调参(如调整学习率、树深度、迭代次数等),以提高性能和准确性
fig, ax = plt.subplots(figsize=(6, 6), dpi=1200)
ax.scatter(y_test, y_pred_test, color='#4169E1', s=5)
# 设置坐标轴范围
x_min, x_max = min(y_test.min(), y_pred_test.min()), max(y_test.max(), y_pred_test.max())
ax.set_xlim([x_min, x_max])
ax.set_ylim([x_min, x_max])
ax.set_xlabel('True Value', fontsize=12)
ax.set_ylabel('Predicted Value', fontsize=12)
ax.grid(True)
ax.legend().set_visible(False)
plt.savefig("1.pdf", format='pdf', bbox_inches='tight',dpi=1200)
plt.show()
这段代码通过绘制真实值与预测值的散点图来可视化回归模型的预测性能,并将图像保存为PDF文件。该图只是一个基础的可视化,展示了真实值与预测值之间的关系,但与文献中常见的精细、丰富和美观的可视化图表相比,缺乏更多的美学和交互性设计,接下来优化一下就达到了下面的可视化结果
✨ 该文章案例 ✨
在上传至交流群的文件中,像往期文章一样,将对案例进行逐步分析,确保读者能够达到最佳的学习效果。内容都经过详细解读,帮助读者深入理解模型的实现过程和数据分析步骤,从而最大化学习成果。
同时,结合提供的免费AI聚合网站进行学习,能够让读者在理论与实践之间实现融会贯通,更加全面地掌握核心概念。
✨ 购买介绍 ✨
本节介绍到此结束,有需要学习数据分析和Python机器学习相关的朋友欢迎到淘宝店铺:Python机器学习AI,或添加作者微信deep_ML联系,购买作者的公众号合集。截至目前为止,合集已包含近300多篇文章,购买合集的同时,还将提供免费稳定的AI大模型使用,包括但不限于ChatGPT、Deepseek、Claude等。
更新的内容包含数据、代码、注释和参考资料。 作者仅分享案例项目,不提供额外的答疑服务。项目中将提供详细的代码注释和丰富的解读,帮助您理解每个步骤 。 购买前请咨询,避免不必要的问题。
✨ 群友反馈 ✨
✨ 淘宝店铺 ✨
请大家打开淘宝扫描上方的二维码,进入店铺,获取更多Python机器学习和AI相关的内容,或者添加作者微信deep_ML联系 避免淘宝客服漏掉信息 ,希望能为您的学习之路提供帮助!
✨ 免费赠书 ✨
支持知识分享,畅享学习乐趣!特别感谢清华大学出版社 对本次赠书活动的鼎力支持!即日起,只需点赞、推荐、转发 此文章,作者将从后台随机抽取一位幸运儿,免费包邮赠送清华出版社提供的《大模型轻量化:模型压缩与训练加速》这本精彩书籍📚!
💡 赶快参与,一键三连,说不定你就是那位幸运读者哦!
往期推荐
机器学习在临床数据分析中的应用:从数据预处理到Web应用实现的完整流程教学
因果推断:利用EconML实现双重机器学习估计条件平均处理效应 (CATE)
期刊复现:基于XGBoost模型的网页工具SHAP力图解释单样本预测结果
期刊配图:nature cities通过ALE(累积局部效应)解析特征对模型影响
期刊复现:结合因果推断与SHAP可解释性的机器学习实现应用流程
nature communications:基于Light GBM与随机森林结合的多模型特征选择方法
如果你对类似于这样的文章感兴趣。
欢迎关注、点赞、转发~
个人观点,仅供参考