lightgbm回归模型训练后的模型如何加载数据文件然后输出为EXCEL数据文件

时间: 2024-09-13 14:05:24 浏览: 131
在LightGBM训练完成后,如果你想要将模型应用于新的数据并将其保存为Excel文件,你可以按照以下步骤操作: 1. **导入必要的库**: ```python import lightgbm as lgb import pandas as pd from sklearn.datasets import load_boston ``` 2. **加载数据(假设已经训练过模型)**: 如果你有之前用于训练的数据集,可以像下面这样加载: ```python train_data = pd.read_csv('train_data.csv') test_data = pd.read_csv('test_data.csv') # 如果测试数据单独存在 X_train = train_data.drop('target_column', axis=1) # target_column是目标变量列名 y_train = train_data['target_column'] ``` 3. **模型应用到新数据上**: ```python model = lgb.Booster(model_file='your_model.txt') # 'your_model.txt' 替换为你的模型文件路径 prediction = model.predict(X_test) ``` 4. **将结果保存为Excel文件**: ```python results = pd.DataFrame({'Predictions': prediction}) results.to_excel('predictions.xlsx', index=False) # 将预测结果保存为Excel文件 ``` 其中,`model_file`是你之前保存模型的文件,`X_test`是你要做预测的新数据。记得替换相应的文件名、列名等。
阅读全文

相关推荐

import pandas as pd from sklearn.model_selection import train_test_split from sklearn.metrics import mean_squared_error, r2_score import numpy as np import os from glob import glob import lightgbm as lgb # 修改1:导入LightGBM库 # 配置路径(保持不变) input_folder = "microalgae" output_folder = "LGBM模型结果" # 修改2:修改输出文件夹名称 os.makedirs(output_folder, exist_ok=True) # 获取文件列表(保持不变) file_list = glob(os.path.join(input_folder, "*.xlsx")) + glob(os.path.join(input_folder, "*.xls")) # 定义公共参数(保持不变) features = ['T', 'Ph', 'Biomass', 'Time', 'Qe', 'Initial'] target_column = 'Removal' all_results = [] for file_path in file_list: try: # 文件名处理(保持不变) base_name = os.path.basename(file_path) output_name = f"{os.path.splitext(base_name)[0]}LGBM评估结果.xlsx" # 修改3:修改结果文件名 output_path = os.path.join(output_folder, output_name) print(f"\n正在处理文件:{base_name}") # 数据加载与处理(保持不变) df = pd.read_excel(file_path) df.columns = df.columns.str.strip() df['Qe'] = df['Removal'] * 0.01*df['Initial']/df['Biomass'] # 数据集划分(保持不变) X = df[features] y = df[target_column] X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 修改4:配置并训练LGBM模型 lgb_model = lgb.LGBMRegressor( n_estimators=200, # 增加树的数量 learning_rate=0.05, # 降低学习率 max_depth=15, subsample=0.8, # 随机采样样本 colsample_bytree=0.8, # 随机采样特征 random_state=42 ) lgb_model.fit(X_train, y_train) # 预测与评估(保持结构不变) y_pred = lgb_model.predict(X_test) y_train_pred = lgb_model.predict(X_train) # 计算指标(保持结构不变) metrics = { '训练集 MSE': mean_squared_error(y_train, y_train_pred), '测试集 MSE': mean_squared_error(y_test, y_pred), '训练集 RMSE': np.sqrt(mean_squared_error(y_train, y_train_pred)), '测试集 RMSE': np.sqrt(mean_squared_error(y_test, y_pred)), '训练集 R²': r2_score(y_train, y_train_pred), '测试集 R²': r2_score(y_test, y_pred) } # 保存结果(保持结构不变) results_df = pd.DataFrame({ '数据集': ['训练集', '测试集'], 'MSE': [metrics['训练集 MSE'], metrics['测试集 MSE']], 'RMSE': [metrics['训练集 RMSE'], metrics['测试集 RMSE']], 'R²': [metrics['训练集 R²'], metrics['测试集 R²']] }) results_df.to_excel(output_path, index=False) # 汇总数据收集(保持结构不变) summary_data = { '文件名': base_name, '训练集MSE': metrics['训练集 MSE'], '测试集MSE': metrics['测试集 MSE'], '训练集RMSE': metrics['训练集 RMSE'], '测试集RMSE': metrics['测试集 RMSE'], '训练集R²': metrics['训练集 R²'], '测试集R²': metrics['测试集 R²'] } all_results.append(summary_data) print(f"已保存结果至:{output_path}") except Exception as e: print(f"处理文件 {base_name} 时发生错误:{str(e)}") continue # 保存汇总结果(保持结构不变) if all_results: summary_df = pd.DataFrame(all_results) summary_path = os.path.join(output_folder, "LGBM模型评估汇总结果.xlsx") summary_df.to_excel(summary_path, index=False) print(f"\n所有结果已汇总保存至:{summary_path}") else: print("\n警告:未生成任何结果文件") print("\n所有文件处理完成!")No further splits with positive gain, best gain: -inf

import pandas as pd import numpy as np from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder from sklearn.metrics import mean_squared_error, r2_score, mean_absolute_error from scipy.optimize import minimize import matplotlib.pyplot as plt from pathlib import Path import lightgbm as lgb # ------------------ 数据预处理 ------------------ # 设置文件路径 excel_path = Path("C:/Users/Administrator/Desktop/augmented_data3.xlsx") # 读取数据 data = pd.read_excel(excel_path, sheet_name='Sheet1') # ------------------ 异常值过滤 ------------------ # 使用IQR方法过滤NO排放浓度异常值 Q1 = data['NO排放浓度'].quantile(0.25) Q3 = data['NO排放浓度'].quantile(0.75) IQR = Q3 - Q1 lower_bound = Q1 - 1.5 * IQR upper_bound = Q3 + 1.5 * IQR data_clean = data[(data['NO排放浓度'] >= lower_bound) & (data['NO排放浓度'] <= upper_bound)] print(f"原始数据量: {len(data)}, 清洗后数据量: {len(data_clean)}") # ------------------ 特征工程 ------------------ # 分类变量编码 data_clean['燃尽风位置'] = data_clean['燃尽风位置'].astype('category') # 特征/目标变量分离 X = data_clean[['掺氨比', '过量空气系数', '燃尽风位置', '主燃区温度']] y = data_clean['NO排放浓度'] # ------------------ 模型训练 ------------------ # 划分数据集 X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.2, random_state=42 ) # LightGBM分位数回归配置 lgb_model = lgb.LGBMRegressor( objective='quantile', # 分位数回归目标 alpha=0.5, # 中位数回归 n_estimators=300, max_depth=10, min_child_samples=5, learning_rate=0.1, categorical_feature=['name:燃尽风位置'], # 指定分类特征 random_state=42 ) # 训练模型 lgb_model.fit(X_train, y_train) y_pred = lgb_model.predict(X_test) # ------------------ 模型评估 ------------------ mse = mean_squared_error(y_test, y_pred) rmse = np.sqrt(mse) mae = mean_absolute_error(y_test, y_pred) r_squared = r2_score(y_test, y_pred) print(f'均方误差 (MSE): {mse:.2f}') print(f'均方根误差 (RMSE): {rmse:.2f}') print(f'平均绝对误差 (MAE): {mae:.2f}') print(f'决定系数 (R²): {r_squared:.2f}') # ------------------ 特征重要性可视化 ------------------ plt.rcParams['font.sans-serif'] = ['SimHei'] plt.rcParams['axes.unicode_minus'] = False importances = lgb_model.feature_importances_ sorted_idx = importances.argsort() plt.figure(figsize=(10,6)) plt.barh(X.columns[sorted_idx], importances[sorted_idx]) plt.title("LightGBM特征重要性排序") plt.show() # ------------------ 优化模块 ------------------ param_bounds = { '掺氨比': (data_clean['掺氨比'].min(), data_clean['掺氨比'].max()), '过量空气系数': (data_clean['过量空气系数'].min(), data_clean['过量空气系数'].max()), '燃尽风位置': (data_clean['燃尽风位置'].min(), data_clean['燃尽风位置'].max()), '主燃区温度': (data_clean['主燃区温度'].min(), data_clean['主燃区温度'].max()) } def objective(x): return lgb_model.predict([x])[0] initial_guess = [ data_clean['掺氨比'].mean(), data_clean['过量空气系数'].mean(), data_clean['燃尽风位置'].mean(), data_clean['主燃区温度'].mean() ] bounds = list(param_bounds.values()) result = minimize( fun=objective, x0=initial_guess, bounds=bounds, method='L-BFGS-B' ) if result.success: optimal_params = result.x min_no_emission = result.fun print(f"最低NO排放浓度: {min_no_emission:.2f} mg/m³") print("最优参数组合:") print(f"掺氨比: {optimal_params[0]:.3f}") print(f"过量空气系数: {optimal_params[1]:.3f}") print(f"燃尽风位置: {optimal_params[2]:.1f}") print(f"主燃区温度: {optimal_params[3]:.1f} ℃") else: print("优化失败,请检查约束条件或算法参数") 检查错误

import pandas as pd from sklearn.model_selection import train_test_split from sklearn.ensemble import RandomForestRegressor from sklearn.metrics import mean_squared_error, r2_score import numpy as np import os from glob import glob # 配置路径 input_folder = "microalgae" # 请替换为实际文件夹路径 output_folder = "随机森林结果" # 结果输出路径 # 创建输出文件夹(如果不存在) os.makedirs(output_folder, exist_ok=True) # 获取所有Excel文件 file_list = glob(os.path.join(input_folder, "*.xlsx")) + glob(os.path.join(input_folder, "*.xls")) # 定义公共参数 features = ['T', 'Ph', 'Biomass', 'Time', 'Initial'] target_column = 'Removal' # 新增:初始化汇总结果列表 all_results = [] for file_path in file_list: try: # 生成结果文件名 base_name = os.path.basename(file_path) output_name = f"{os.path.splitext(base_name)[0]}模型评估结果.xlsx" output_path = os.path.join(output_folder, output_name) print(f"\n正在处理文件:{base_name}") # 加载数据 df = pd.read_excel(file_path) df.columns = df.columns.str.strip() # 分割数据集 X = df[features] y = df[target_column] X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # 建模训练 clf = RandomForestRegressor(n_estimators=100, random_state=42) clf.fit(X_train, y_train) # 预测与评估 y_pred = clf.predict(X_test) y_train_pred = clf.predict(X_train) # 计算指标 metrics = { '训练集 MSE': mean_squared_error(y_train, y_train_pred), '测试集 MSE': mean_squared_error(y_test, y_pred), '训练集 RMSE': np.sqrt(mean_squared_error(y_train, y_train_pred)), '测试集 RMSE': np.sqrt(mean_squared_error(y_test, y_pred)), '训练集 R²': r2_score(y_train, y_train_pred), '测试集 R²': r2_score(y_test, y_pred) } # 保存单个文件结果 results_df = pd.DataFrame({ '数据集': ['训练集', '测试集'], 'MSE': [metrics['训练集 MSE'], metrics['测试集 MSE']], 'RMSE': [metrics['训练集 RMSE'], metrics['测试集 RMSE']], 'R²': [metrics['训练集 R²'], metrics['测试集 R²']] }) results_df.to_excel(output_path, index=False) # 新增:收集汇总数据 summary_data = { '文件名': base_name, '训练集MSE': metrics['训练集 MSE'], '测试集MSE': metrics['测试集 MSE'], '训练集RMSE': metrics['训练集 RMSE'], '测试集RMSE': metrics['测试集 RMSE'], '训练集R²': metrics['训练集 R²'], '测试集R²': metrics['测试集 R²'] } all_results.append(summary_data) print(f"已保存结果至:{output_path}") except Exception as e: print(f"处理文件 {base_name} 时发生错误:{str(e)}") continue # 新增:保存汇总结果 if all_results: summary_df = pd.DataFrame(all_results) summary_path = os.path.join(output_folder, "随机森林模型评估汇总结果.xlsx") summary_df.to_excel(summary_path, index=False) print(f"\n所有结果已汇总保存至:{summary_path}") else: print("\n警告:未生成任何结果文件") print("\n所有文件处理完成!")模型效果表现不好如何优化

import pandas as pd import numpy as np from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder from sklearn.ensemble import RandomForestRegressor from sklearn.metrics import mean_squared_error, r2_score, mean_absolute_error from scipy.optimize import minimize import matplotlib.pyplot as plt from pathlib import Path ------------------ 数据预处理 ------------------ 设置文件路径 excel_path = Path(“C:/Users/Administrator/Desktop/augmented_data3.xlsx”) 读取数据 data = pd.read_excel(excel_path, sheet_name=‘Sheet1’) 特征工程处理 检查并转换分类变量(仅对真正需要编码的列进行处理) cat_cols = [] le = LabelEncoder() 假设’燃尽风位置’是分类变量,进行编码 if data[‘燃尽风位置’].dtype == ‘object’: data[‘燃尽风位置’] = le.fit_transform(data[‘燃尽风位置’]) cat_cols.append(‘燃尽风位置’) 确保温度保持为连续数值(移除之前的字符串转换) X = data[[‘掺氨比’, ‘过量空气系数’, ‘燃尽风位置’, ‘主燃区温度’]] y = data[‘NO排放浓度’]# 在现有数据预处理阶段后添加以下代码(划分训练测试集之前) ------------------ 模型训练 ------------------ 划分训练测试集 X_train_clean, X_test, y_train_clean, y_test = train_test_split( X, y, test_size=0.2, random_state=42 ) 随机森林模型配置 rf = RandomForestRegressor( n_estimators=300, max_depth=10, min_samples_split=5, random_state=42 ) 训练模型 rf.fit(X_train_clean, y_train_clean) y_pred = rf.predict(X_test) 计算评估指标 mse = mean_squared_error(y_test, y_pred) rmse = np.sqrt(mse) mae = mean_absolute_error(y_test, y_pred) r_squared = r2_score(y_test, y_pred) print(f’均方误差 (MSE): {mse:.2f}‘) print(f’均方根误差 (RMSE): {rmse:.2f}’) print(f’平均绝对误差 (MAE): {mae:.2f}‘) print(f’决定系数 (R²): {r_squared:.2f}’)# 可视化特征重要性(排序后) plt.rcParams[‘font.sans-serif’] = [‘SimHei’] plt.rcParams[‘axes.unicode_minus’] = False importances = rf.feature_importances_ sorted_idx = importances.argsort() plt.figure(figsize=(10,6)) plt.barh(X.columns[sorted_idx], importances[sorted_idx]) plt.title(“随机森林特征重要性排序”) plt.show() param_bounds = { ‘掺氨比’: (data[‘掺氨比’].min(), data[‘掺氨比’].max()), ‘过量空气系数’: (data[‘过量空气系数’].min(), data[‘过量空气系数’].max()), ‘燃尽风位置’: (data[‘燃尽风位置’].min(), data[‘燃尽风位置’].max()), ‘主燃区温度’: (data[‘主燃区温度’].min(), data[‘主燃区温度’].max()) } def objective(x): # x为待优化参数:[掺氨比, 过量空气系数, 燃尽风位置, 主燃区温度] return rf.predict([x])[0] # 使用训练好的随机森林进行预测 initial_guess = [ data[‘掺氨比’].mean(), data[‘过量空气系数’].mean(), data[‘燃尽风位置’].mean(), data[‘主燃区温度’].mean() ] 定义参数边界(需转换为scipy优化格式) bounds = [ param_bounds[‘掺氨比’], param_bounds[‘过量空气系数’], param_bounds[‘燃尽风位置’], param_bounds[‘主燃区温度’] ] result = minimize( fun=objective, x0=initial_guess, bounds=bounds, method=‘L-BFGS-B’ # 适合有界优化问题 ) if result.success: optimal_params = result.x min_no_emission = result.fun print(f"最低NO排放浓度: {min_no_emission:.2f} mg/m³") print(“最优参数组合:”) print(f"掺氨比: {optimal_params[0]:.3f}“) print(f"过量空气系数: {optimal_params[1]:.3f}”) print(f"燃尽风位置: {optimal_params[2]:.1f}“) print(f"主燃区温度: {optimal_params[3]:.1f} ℃”) else: print(“优化失败,请检查约束条件或算法参数”) 改为使用LightGBM分位数回归+异常值过滤

# -*- coding: utf-8 -*- """ Created on 2023-10-16 @author: Your Name 本代码用于对房屋交易数据进行分析,包括数据预处理、特征工程、模型训练与评估等步骤。 目标是研究影响城市住宅价格的因素,并评估不同机器学习模型在预测房价方面的表现。 """ # 导入必要的库 import pandas as pd import numpy as np from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LinearRegression from sklearn.tree import DecisionTreeRegressor from sklearn.ensemble import RandomForestRegressor from sklearn.svm import SVR from sklearn.neural_network import MLPRegressor from sklearn.metrics import mean_absolute_error, mean_squared_error import shap import matplotlib.pyplot as plt import warnings import re # 忽略警告信息 warnings.filterwarnings("ignore") # 1. 数据加载与初步查看 def load_data(file_path): """ 加载数据并进行初步查看 """ data = pd.read_excel(file_path) print("数据集基本信息:") print(data.info()) print("\n数据集前5行:") print(data.head()) print("\n数据集描述性统计:") print(data.describe()) return data # 2. 数据预处理 def data_preprocessing(data): """ 数据预处理,包括删除无效数据、变量转化或拆分、数据集整合、删除极端值等 """ # 删除无效数据(如缺失值过多的行) data = data.dropna(thresh=len(data.columns) * 2 / 3, axis=0) # 变量转化或拆分 # 拆分户型信息,适应不同的格式 def extract_room_hall(x): if pd.isna(x): return np.nan, np.nan # 尝试匹配常见的格式,如 "3室1厅"、"3房间1厅"、"3房1厅" 等 room = 0 hall = 0 if '室' in x and '厅' in x: parts = x.split('厅') if len(parts) >= 2: room_part = parts[0] hall_part = parts[1].split(' ')[0] if ' ' in parts[1] else parts[1] room = room_part.split('室')[0] if '室' in room_part else 0 hall = hall_part.split('厅')[0] if '厅' in hall_part else 0 elif '房间' in x and '厅' in x: parts = x.split('厅') if len(parts) >= 2: room_part = parts[0] hall_part = parts[1].split(' ')[0] if ' ' in parts[1] else parts[1] room = room_part.sp

import pandas as pd from sklearn.model_selection import train_test_split, GridSearchCV from sklearn.ensemble import GradientBoostingRegressor from sklearn.metrics import mean_squared_error, r2_score import numpy as np # 加载数据 df = pd.read_excel('集胞藻-Cd.xlsx') # 确保文件路径正确 # 清理列名,移除列名中的空格 df.columns = df.columns.str.strip() # 定义特征列和目标列 features =['T','Ph','Biomass','Time','Initial'] target_column = 'Removel' # 提取特征和目标数据 X = df[features] y = df[target_column] # 分割数据为训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # # 保存训练集 # train_dataset = pd.concat([X_train, y_train], axis=1) # train_dataset.to_csv('train_dataset.csv', index=False) # # # 保存测试集 # test_dataset = pd.concat([X_test, y_test], axis=1) # test_dataset.to_csv('test_dataset.csv', index=False) # 定义要搜索的参数网格 param_grid = { 'n_estimators': [80, 100, 120], 'learning_rate': [0.1, 0.2], # 降低学习率 'max_depth': [3,4], # 减少树深度 'min_samples_split': [5,10], # 新增分裂最小样本数 'subsample': [0.8,0.9], # 新增样本子采样 'max_features': [0.8,0.9] # 新增特征子采样 } # 创建梯度提升回归模型实例 gbr = GradientBoostingRegressor(random_state=42) # 使用 GridSearchCV 进行参数调优 grid_search = GridSearchCV( estimator=gbr, param_grid=param_grid, cv=10, # $\Delta$ 将cv从80改为10折交叉验证 scoring='neg_mean_squared_error', n_jobs=-1, # $\Delta$ 启用并行计算 verbose=2 ) grid_search.fit(X_train, y_train) gbr = GradientBoostingRegressor( random_state=42, n_iter_no_change=5 # $\Delta$ 添加早停条件 ) # 找到最佳参数组合 print("Best parameters:", grid_search.best_params_) # 使用最佳参数的模型在训练集和测试集上进行预测 y_train_pred = grid_search.predict(X_train) y_test_pred = grid_search.predict(X_test) # 计算并打印训练集和测试集的均方误差 (MSE)、均方根误差 (RMSE) 和 R^2 值 mse_train = mean_squared_error(y_train, y_train_pred) rmse_train = np.sqrt(mse_train) r2_train = r2_score(y_train, y_train_pred) mse_test = mean_squared_error(y_test, y_test_pred) rmse_test = np.sqrt(mse_test) r2_test = r2_score(y_test, y_test_pred) print(f"训练集 MSE: {mse_train}") print(f"训练集 RMSE: {rmse_train}") print(f"训练集 R^2: {r2_train}") print(f"测试集 MSE: {mse_test}") print(f"测试集 RMSE: {rmse_test}") print(f"测试集 R^2: {r2_test}") # 保存结果 results_df = pd.DataFrame({ '数据集': ['训练集', '测试集'], 'MSE': [mse_train, mse_test], 'RMSE': [rmse_train, rmse_test], 'R²': [r2_train, r2_test] }) results_df.to_excel('XGB结果/集胞藻-Cd模型评估结果.xlsx', index=False)测试集结果不好怎么办,如何优化

import numpy as np import pandas as pd import xgboost as xgb from sklearn.model_selection import train_test_split from sklearn.metrics import mean_absolute_error, r2_score # 从Excel文件中读取数据 noisy_df = pd.read_excel('015.xlsx', engine='openpyxl') clean_df = pd.read_excel('000.xlsx', engine='openpyxl') # 取前50000行数据 noisy_df = noisy_df.iloc[:50000] clean_df = clean_df.iloc[:50000] # 只取前50000组数据 X_noisy = noisy_df.to_numpy().reshape(-1, 10) X_clean = clean_df.to_numpy().reshape(-1, 10) # 生成目标数据 y,预测序列中最后一个干净数据点 y = X_clean[:, -1] # 数据集划分(60%训练,20%验证,20%测试) X_train, X_temp, y_train, y_temp = train_test_split(X_noisy, y, test_size=0.4, random_state=42) X_valid, X_test, y_valid, y_test = train_test_split(X_temp, y_temp, test_size=0.5, random_state=42) # XGBoost 训练 xgb_model = xgb.XGBRegressor( objective='reg:squarederror', n_estimators=500, learning_rate=0.05, max_depth=6, subsample=0.8, colsample_bytree=0.8, random_state=42, early_stopping_rounds=10 # 将 early_stopping_rounds 移至此处 ) xgb_model.fit( X_train, y_train, eval_set=[(X_valid, y_valid)], verbose=False ) # 预测 y_pred = xgb_model.predict(X_test) # 评估模型 mse = np.mean((y_pred - y_test) ** 2) mae = mean_absolute_error(y_test, y_pred) r2 = r2_score(y_test, y_pred) print(f'Test MSE: {mse:.6f}, MAE: {mae:.6f}, R² Score: {r2:.4f}')Test MSE: 0.015968, MAE: 0.100940, R² Score: -0.0048数值不太好如何修改模型

import pandas as pd import numpy as np from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder from sklearn.ensemble import RandomForestRegressor from sklearn.metrics import mean_squared_error, r2_score, mean_absolute_error from scipy.optimize import minimize import matplotlib.pyplot as plt from pathlib import Path # ------------------ 数据预处理 ------------------ # 设置文件路径 excel_path = Path("C:/Users/Administrator/Desktop/augmented_data3.xlsx") # 读取数据 data = pd.read_excel(excel_path, sheet_name='Sheet1') # 特征工程处理 # 检查并转换分类变量(仅对真正需要编码的列进行处理) cat_cols = [] le = LabelEncoder() # 假设'燃尽风位置'是分类变量,进行编码 if data['燃尽风位置'].dtype == 'object': data['燃尽风位置'] = le.fit_transform(data['燃尽风位置']) cat_cols.append('燃尽风位置') # 确保温度保持为连续数值(移除之前的字符串转换) X = data[['掺氨比', '过量空气系数', '燃尽风位置', '主燃区温度']] y = data['NO排放浓度']# 在现有数据预处理阶段后添加以下代码(划分训练测试集之前) # ------------------ 模型训练 ------------------ # 划分训练测试集 X_train_clean, X_test, y_train_clean, y_test = train_test_split( X, y, test_size=0.2, random_state=42 ) # 在模型训练阶段前添加(划分训练测试集之后) def zscore_filter(X_train, y_train, threshold=3): """基于Z-Score的离群值过滤""" train_data = pd.concat([X_train, y_train], axis=1) z_scores = np.abs((train_data - train_data.mean()) / train_data.std()) return train_data[(z_scores < threshold).all(axis=1)] # 执行过滤 train_clean = zscore_filter(X_train, y_train) X_train_clean, y_train_clean = train_clean.iloc[:, :-1], train_clean.iloc[:, -1] # 使用清洗后的数据训练 rf.fit(X_train_clean, y_train_clean) plt.figure(figsize=(10,6)) data[['NO排放浓度']].boxplot() plt.title('目标变量分布-清洗前') plt.show() train_clean[['NO排放浓度']].boxplot() plt.title('目标变量分布-清洗后') plt.show() print(f"原始训练样本数: {len(X_train)}") print(f"清洗后样本数: {len(X_train_clean)}") # 随机森林模型配置 rf = RandomForestRegressor( n_estimators=300, max_depth=10, min_samples_split=5, random_state=42 ) # 训练模型 rf.fit(X_train_clean, y_train_clean) y_pred = rf.predict(X_test) # 计算评估指标 mse = mean_squared_error(y_test, y_pred) rmse = np.sqrt(mse) mae = mean_absolute_error(y_test, y_pred) r_squared = r2_score(y_test, y_pred) print(f'均方误差 (MSE): {mse:.2f}') print(f'均方根误差 (RMSE): {rmse:.2f}') print(f'平均绝对误差 (MAE): {mae:.2f}') print(f'决定系数 (R²): {r_squared:.2f}') # 可视化特征重要性(排序后) plt.rcParams['font.sans-serif'] = ['SimHei'] plt.rcParams['axes.unicode_minus'] = False importances = rf.feature_importances_ sorted_idx = importances.argsort() plt.figure(figsize=(10,6)) plt.barh(X.columns[sorted_idx], importances[sorted_idx]) plt.title("随机森林特征重要性排序") plt.show() param_bounds = { '掺氨比': (data['掺氨比'].min(), data['掺氨比'].max()), '过量空气系数': (data['过量空气系数'].min(), data['过量空气系数'].max()), '燃尽风位置': (data['燃尽风位置'].min(), data['燃尽风位置'].max()), '主燃区温度': (data['主燃区温度'].min(), data['主燃区温度'].max()) } def objective(x): # x为待优化参数:[掺氨比, 过量空气系数, 燃尽风位置, 主燃区温度] return rf.predict([x])[0] # 使用训练好的随机森林进行预测 initial_guess = [ data['掺氨比'].mean(), data['过量空气系数'].mean(), data['燃尽风位置'].mean(), data['主燃区温度'].mean() ] 改为使用梯度提升树框架

最新推荐

recommend-type

试谈商业电子商务师创业计划书撰写要求.doc

试谈商业电子商务师创业计划书撰写要求.doc
recommend-type

互联网对企业营销的影响优秀.ppt

互联网对企业营销的影响优秀.ppt
recommend-type

ASP.NET新闻管理系统:用户管理与内容发布功能

知识点: 1. ASP.NET 概念:ASP.NET 是一个开源、服务器端 Web 应用程序框架,用于构建现代 Web 应用程序。它是 .NET Framework 的一部分,允许开发者使用 .NET 语言(例如 C# 或 VB.NET)来编写网页和 Web 服务。 2. 新闻发布系统功能:新闻发布系统通常具备用户管理、新闻分级、编辑器处理、发布、修改、删除等功能。用户管理指的是系统对不同角色的用户进行权限分配,比如管理员和普通编辑。新闻分级可能是为了根据新闻的重要程度对它们进行分类。编辑器处理涉及到文章内容的编辑和排版,常见的编辑器有CKEditor、TinyMCE等。而发布、修改、删除功能则是新闻发布系统的基本操作。 3. .NET 2.0:.NET 2.0是微软发布的一个较早版本的.NET框架,它是构建应用程序的基础,提供了大量的库和类。它在当时被广泛使用,并支持了大量企业级应用的构建。 4. 文件结构分析:根据提供的压缩包子文件的文件名称列表,我们可以看到以下信息: - www.knowsky.com.txt:这可能是一个文本文件,包含着Knowsky网站的一些信息或者某个页面的具体内容。Knowsky可能是一个技术社区或者文档分享平台,用户可以通过这个链接获取更多关于动态网站制作的资料。 - 源码下载.txt:这同样是一个文本文件,顾名思义,它可能包含了一个新闻系统示例的源代码下载链接或指引。用户可以根据指引下载到该新闻发布系统的源代码,进行学习或进一步的定制开发。 - 动态网站制作指南.url:这个文件是一个URL快捷方式,它指向一个网页资源,该资源可能包含关于动态网站制作的教程、指南或者最佳实践,这对于理解动态网站的工作原理和开发技术将非常有帮助。 - LixyNews:LixyNews很可能是一个项目文件夹,里面包含新闻发布系统的源代码文件。通常,ASP.NET项目会包含多个文件,如.aspx文件(用户界面)、.cs文件(C#代码后台逻辑)、.aspx.cs文件(页面的代码后台)等。这个文件夹中应该还包含Web.config配置文件,它用于配置整个项目的运行参数和环境。 5. 编程语言和工具:ASP.NET主要是使用C#或者VB.NET这两种语言开发的。在该新闻发布系统中,开发者可以使用Visual Studio或其他兼容的IDE来编写、调试和部署网站。 6. 新闻分级和用户管理:新闻分级通常涉及到不同的栏目分类,分类可以是按照新闻类型(如国际、国内、娱乐等),也可以是按照新闻热度或重要性(如头条、焦点等)进行分级。用户管理则是指系统需具备不同的用户身份验证和权限控制机制,保证只有授权用户可以进行新闻的发布、修改和删除等操作。 7. 编辑器处理:一个新闻发布系统的核心组件之一是所使用的Web编辑器。这个编辑器可以是内置的简单文本框,也可以是富文本编辑器(WYSIWYG,即所见即所得编辑器),后者能够提供类似于Word的编辑体验,并能输出格式化后的HTML代码。CKEditor和TinyMCE是常用的开源Web编辑器,它们支持插入图片、视频、表格等多种媒体,并能对文本进行复杂的格式化操作。 8. 发布、修改和删除功能:这是新闻发布系统的基本操作功能。发布功能允许用户将编辑好的新闻内容上线;修改功能可以对已发布的新闻内容进行更新;删除功能则用于移除不再需要的新闻文章。这些操作通常需要后台管理界面来支持,并且系统会在数据库中记录相关操作的记录,以便管理历史版本和审计日志。 以上知识点覆盖了从ASP.NET基础、新闻发布系统的具体功能实现到系统开发过程中的细节处理等多个方面。开发者在构建类似系统时,需要深入了解这些知识点,才能设计和实现一个功能完备、易用、安全的新闻发布系统。
recommend-type

【实战派量化投资秘籍】:Pair Trading策略全方位解析

# 摘要 量化投资中的Pair Trading策略是一种依赖统计套利和市场效率假说的交易方法,其核心在于选择相关性高的资产作为交易对并应用协整理论进行市场中立投资。本文首先概述了Pair Trading策略的理论基础,随后详细探讨了策略的实操技巧,包括数据预处理、模型建立和交易信号生成。接着,文章重点介绍了策略的编程实现,提供了环境搭建
recommend-type

fpga中保持时间建立时间时序约束

<think>我们讨论的是FPGA中的建立时间(Setup Time)和保持时间(Hold Time)时序约束问题。建立时间是指在时钟有效边沿到来之前,数据必须保持稳定的最小时间。保持时间是指在时钟有效边沿到来之后,数据必须保持稳定的最小时间。时序约束就是确保设计满足这些时间要求。 在FPGA设计中,我们通过时序约束(如时钟约束、输入输出延迟约束等)来告知工具设计的时序要求,工具会根据这些约束进行优化和验证。 以下是关于建立时间和保持时间时序约束的详细说明: ### 1. 建立时间和保持时间的基本概念 - **建立时间(Setup Time)**:时钟边沿到达前,数据必须稳定的时间。 -
recommend-type

Notepad2: 高效替代XP系统记事本的多功能文本编辑器

### 知识点详解 #### 标题解析 - **Vista记事本(Notepad2)**: Vista记事本指的是一款名为Notepad2的文本编辑器,它不是Windows Vista系统自带的记事本,而是一个第三方软件,具备高级编辑功能,使得用户在编辑文本文件时拥有更多便利。 - **可以替换xp记事本Notepad**: 这里指的是Notepad2拥有替换Windows XP系统自带记事本(Notepad)的能力,意味着用户可以安装Notepad2来获取更强大的文本处理功能。 #### 描述解析 - **自定义语法高亮**: Notepad2支持自定义语法高亮显示,可以对编程语言如HTML, XML, CSS, JavaScript等进行关键字着色,从而提高代码的可读性。 - **支持多种编码互换**: 用户可以在不同的字符编码格式(如ANSI, Unicode, UTF-8)之间进行转换,确保文本文件在不同编码环境下均能正确显示和编辑。 - **无限书签功能**: Notepad2支持设置多个书签,用户可以根据需要对重要代码行或者文本行进行标记,方便快捷地进行定位。 - **空格和制表符的显示与转换**: 该编辑器可以将空格和制表符以不同颜色高亮显示,便于区分,并且可以将它们互相转换。 - **文本块操作**: 支持使用ALT键结合鼠标操作,进行文本的快速选择和编辑。 - **括号配对高亮显示**: 对于编程代码中的括号配对,Notepad2能够高亮显示,方便开发者查看代码结构。 - **自定义代码页和字符集**: 支持对代码页和字符集进行自定义,以提高对中文等多字节字符的支持。 - **标准正则表达式**: 提供了标准的正则表达式搜索和替换功能,增强了文本处理的灵活性。 - **半透明模式**: Notepad2支持半透明模式,这是一个具有视觉效果的功能,使得用户体验更加友好。 - **快速调整页面大小**: 用户可以快速放大或缩小编辑器窗口,而无需更改字体大小。 #### 替换系统记事本的方法 - **Windows XP/2000系统替换方法**: 首先关闭系统文件保护,然后删除系统文件夹中的notepad.exe,将Notepad2.exe重命名为notepad.exe,并将其复制到C:\Windows和C:\Windows\System32目录下,替换旧的记事本程序。 - **Windows 98系统替换方法**: 直接将重命名后的Notepad2.exe复制到C:\Windows和C:\Windows\System32目录下,替换旧的记事本程序。 #### 关闭系统文件保护的方法 - 通过修改Windows注册表中的"SFCDisable"键值,可以临时禁用Windows系统的文件保护功能。设置键值为"FFFFFF9D"则关闭文件保护,设置为"0"则重新启用。 #### 下载地址 - 提供了Notepad2的下载链接,用户可以通过该链接获取安装包。 #### 文件压缩包内文件名 - **Notepad2MOD1.1.0.8CN.exe**: 这是压缩包内所含的Notepad2编译版本,表明这是一个中文版的安装程序,版本号为1.1.0.8。 ### 总结 Notepad2是一款强大的文本编辑器,它继承了传统的记事本程序界面,同时引入了诸多增强功能,如语法高亮、编码格式转换、书签管理、文本操作快捷键、括号高亮匹配等。这使得它在处理代码、标记语言和其他文本文件时具备极大的优势。用户可以通过替换系统默认记事本的方式,将Notepad2融入到操作系统中,充分享受这些高级功能带来的便捷。同时,提供了关闭系统文件保护的方法,以便用户能够顺利完成替换工作。最后,给出了下载地址,方便用户获取软件安装包。
recommend-type

【mPower1203驱动故障全攻略】:排除新手疑难杂症,提升部署效率

# 1. mPower1203驱动概述与故障诊断基础 在当今信息技术飞速发展的时代,高效准确地诊断和解决驱动故障对于确保企业级IT系统的稳定运行至关重要。mPower1203驱动作为一个广泛应用于高性能计算和数据处理领域的驱动程序,它的稳定性和性能优化对于很多关键业务系统都是不可忽视的。本章节将为您提供一个mPower1203驱动的概述,并对故障诊断的
recommend-type

keil5打不开

<think>我们正在处理Keil 5无法打开的问题。根据引用资料,可能的原因和解决方案如下: 1. 工程路径过长:将工程移动到较短的路径下(如D:\Project)[^3]。 2. 需要安装C51支持包(如果涉及51单片机)[^2]。 3. 编译器配置问题:重新安装或添加ARM编译器[^4]。 4. 软件冲突:以管理员身份运行Keil,并确保安装路径正确。 下面详细说明解决方案:</think>### Keil 5无法打开的解决方法 根据引用资料,Keil 5无法打开通常有以下几种原因及解决方案: #### 1. **工程路径过长问题** [^3] 当工程文件路径嵌套过深时(
recommend-type

远程进程注入技术详解:DLL注入的实现步骤

标题中提到的"RemoteCall"是一种远程进程注入技术,其关键知识点围绕着如何在不直接操作目标进程的情况下,在远程进程内存空间中加载和执行代码。这一技术广泛应用于多个领域,包括但不限于恶意软件开发、安全测试、系统管理工具等。下面,我们将深入探讨这一技术的关键步骤以及涉及的相关技术概念。 ### 进程ID的获取 要对远程进程进行操作,首先需要知道该进程的标识符,即进程ID(Process Identifier,PID)。每个运行中的进程都会被操作系统分配一个唯一的进程ID。通过系统调用或使用各种操作系统提供的工具,如Windows的任务管理器或Linux的ps命令,可以获取到目标进程的PID。 ### 远程进程空间内存分配 进程的内存空间是独立的,一个进程不能直接操作另一个进程的内存空间。要注入代码,需要先在远程进程的内存空间中分配一块内存区域。这一操作通常通过调用操作系统提供的API函数来实现,比如在Windows平台下可以使用VirtualAllocEx函数来在远程进程空间内分配内存。 ### 写入DLL路径到远程内存 分配完内存后,接下来需要将要注入的动态链接库(Dynamic Link Library,DLL)的完整路径字符串写入到刚才分配的内存中。这一步是通过向远程进程的内存写入数据来完成的,同样需要使用到如WriteProcessMemory这样的API函数。 ### 获取Kernel32.dll中的LoadLibrary地址 Kernel32.dll是Windows操作系统中的一个基本的系统级动态链接库,其中包含了许多重要的API函数。LoadLibrary函数用于加载一个动态链接库模块到指定的进程。为了远程调用LoadLibrary函数,必须首先获取到这个函数在远程进程内存中的地址。这一过程涉及到模块句柄的获取和函数地址的解析,可以通过GetModuleHandle和GetProcAddress这两个API函数来完成。 ### 创建远程线程 在有了远程进程的PID、分配的内存地址、DLL文件路径以及LoadLibrary函数的地址后,最后一步是创建一个远程线程来加载DLL。这一步通过调用CreateRemoteThread函数来完成,该函数允许调用者指定一个线程函数地址和一个参数。在这里,线程函数地址就是LoadLibrary函数的地址,参数则是DLL文件的路径。当远程线程启动后,它将在目标进程中执行LoadLibrary函数,从而加载DLL,实现代码注入。 ### 远程进程注入的应用场景与风险 远程进程注入技术的应用场景十分广泛。在系统管理方面,它允许用户向运行中的应用程序添加功能,如插件支持、模块化更新等。在安全领域,安全工具会使用注入技术来提供深度防护或监控。然而,远程进程注入技术也具有极高的风险性,特别是当被用于恶意软件时,它能够被用来注入恶意代码,对用户系统的安全性和稳定性造成威胁。因此,了解这一技术的同时,也必须对其潜在的安全风险有所认识,特别是在进行系统安全防护时,需要对该技术进行检测和防护。 ### 结语 通过对"RemoteCall"远程线程注入技术的知识点分析,我们了解到这一技术的强大能力,以及它在安全测试、系统维护和潜在恶意软件开发中的双重作用。掌握远程进程注入技术不仅要求对操作系统和编程有深入了解,还要求具备应对潜在安全风险的能力。在未来,随着技术的发展和安全挑战的增加,对这类技术的掌握和应用将变得更加重要。
recommend-type

【驱动安装背后的故事】:mPower1203机制深度剖析及优化技巧

# 1. 驱动安装机制概述 ## 简介 驱动安装机制是指操作系统与计算机硬件设备之间交互的过程。这一过程涉及到驱动软件的识别、加载和初始化,确保硬件设备能够在操作系统中正确、高效地运行。本章节将从宏观角度对驱动安装机制进行概述,为深入探讨特定驱动如mPower1203提供基础。 ## 驱动安装的步骤 一