活动介绍

File "<python-input-11>", line 3 print(f" pandas版本: {pandas.__version__}") IndentationError: unexpected indent

时间: 2025-03-13 19:02:01 浏览: 92
<think>嗯,用户现在遇到了一个IndentationError: unexpected indent的错误。这个问题在Python中很常见,特别是对于新手来说。我需要先理解错误信息的具体内容。用户提供的错误信息显示在文件"<python-input-11>"的第3行,print语句有一个意外的缩进。 首先,我应该回想Python的缩进规则。Python使用缩进来表示代码块,比如在函数、循环、条件语句等结构中。如果缩进不正确,比如在不应该缩进的地方添加了空格或制表符,就会引发IndentationError。用户的问题在于第3行的print语句出现了意外的缩进,而前面的代码可能没有需要缩进的结构。 接下来,我需要考虑用户可能的代码结构。比如,用户可能在写一个没有缩进必要的代码行时,不小心多加了空格。比如: ```python import pandas as pd # 其他代码 print(f" pandas版本: {pandas.__version__}") # 这一行前面有额外的空格 ``` 在这种情况下,第3行的print语句前面有四个空格,而该行并不属于任何需要缩进的代码块,比如if语句、for循环或函数定义之后,因此会导致错误。 接下来,我需要总结常见的导致这个错误的原因,并给出对应的解决方法。可能的情况包括: 1. **多餘空格或Tab符**:用户可能在行首无意中添加了空格或Tab,导致解释器认为这里应该是一个新的代码块,但实际上并不需要。 2. **对齐错误**:例如在续行时,缩进没有正确对齐,尤其是在多行语句中。 3. **混合空格和Tab**:虽然错误信息中未明确提到,但混合使用空格和制表符也可能导致问题,尽管通常这会引发另一个错误(TabError)。 然后,我需要给出具体的解决步骤,比如检查代码的缩进,删除多余的空格,确保代码块正确对齐。同时,可能需要提醒用户使用编辑器显示空格和制表符,以便更容易发现问题。 用户可能的代码示例可能如下: 错误示例: ```python import pandas as pd print(pd.__version__) # 错误:行首有额外缩进 ``` 修正后的代码: ```python import pandas as pd print(pd.__version__) # 正确:无缩进 ``` 此外,用户可能在函数、循环或条件语句中错误地缩进了代码。例如,如果用户没有正确地结束一个代码块,导致后面的代码仍然处于缩进状态。例如: 错误示例: ```python def my_function(): print("Hello") print("World") # 错误:多了一层缩进 ``` 修正后: ```python def my_function(): print("Hello") print("World") # 正确:同一层缩进 ``` 但根据用户提供的错误信息,第3行的print语句可能并不在函数或循环内,因此更可能是第一种情况,即在不该缩进的地方添加了缩进。 另外,用户可能在复制粘贴代码时不小心引入了缩进,或者在编辑时误操作。需要建议用户检查该行的行首是否有空格或Tab,并删除它们。 最后,我需要以清晰的结构将问题原因和解决方法分点列出,帮助用户逐步排查和解决问题。同时,可能需要提醒用户使用IDE或编辑器的自动缩进功能,或者显示空白字符的功能,来预防此类错误。</think>### 缩进错误 `IndentationError: unexpected indent` 解析 此错误表示 Python 检测到某行代码存在意外的缩进(空格或 Tab)。Python 依赖缩进定义代码块结构,多余的缩进会破坏语法逻辑。以下是常见原因及解决方法: --- #### 1. **行首存在意外空格或 Tab** - **问题**:代码行首多出不必要的缩进。 - **示例**: ```python import pandas as pd print(pd.__version__) # 错误:行首有额外缩进 ``` - **修正**:删除行首多余空格/Tab。 ```python import pandas as pd print(pd.__version__) # 正确:无缩进 ``` --- #### 2. **代码块未正确对齐** - **问题**:在函数、循环、条件语句等代码块中,缩进层级不一致。 - **示例**: ```python if True: print("条件成立") print("执行操作") # 错误:多了一层缩进 ``` - **修正**:统一使用 4 个空格或 1 个 Tab 作为缩进单位。 ```python if True: print("条件成立") print("执行操作") # 正确:对齐同一层级 ``` --- #### 3. **多行语句未正确换行** - **问题**:长代码换行时缩进不规范。 - **示例**: ```python total = 10 + 20 + \ 30 + 40 # 正确:换行后缩进一层 print(total) # 错误:print 与上一行对齐,但实际无需缩进 ``` - **修正**:换行后若无需逻辑关联,应取消缩进。 ```python total = 10 + 20 + \ 30 + 40 # 正确 print(total) # 正确:取消缩进 ``` --- #### 4. **混合使用空格和 Tab** - **问题**:虽然未直接触发 `IndentationError`,但混用空格和 Tab 可能导致视觉对齐错误。 - **建议**:统一使用空格(推荐)或 Tab,并在编辑器中设置「显示不可见字符」。 --- ### 排查步骤总结 1. **定位错误行**:根据报错提示找到代码中意外缩进的行(示例中的 `line 3`)。 2. **检查行首空格**:删除行首多余的空格或 Tab。 3. **验证代码块结构**:确保函数、循环、条件语句内的缩进层级一致。 4. **检查多行语句**:换行后若无需延续逻辑,取消缩进。 5. **统一缩进规则**:配置编辑器将 Tab 转换为空格(通常设置为 4 空格)。 --- ### 工具辅助 - **IDE 功能**:使用 PyCharm、VSCode 等工具的自动缩进检查和「显示空格/Tab」功能。 - **命令行工具**:通过 `python -m tabnanny 脚本名.py` 检查缩进问题。 通过以上方法,可快速定位并修复意外的缩进错误。
阅读全文

相关推荐

import pandas as pd import numpy as np from sklearn.linear_model import LogisticRegression, LogisticRegressionCV from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score, roc_auc_score, classification_report import statsmodels.api as sm from pygam import LogisticGAM, s, te import matplotlib.pyplot as plt import seaborn as sns import os from pathlib import Path # 设置中文显示 plt.rcParams["font.family"] = ["SimHei", "WenQuanYi Micro Hei", "Heiti TC"] plt.rcParams['axes.unicode_minus'] = False # 解决负号显示问题 plt.rcParams['figure.dpi'] = 300 # 提高图像分辨率 plt.rcParams['figure.figsize'] = (10, 6) # 默认图像大小 # 创建输出目录 output_dir = Path("模型结果与图像") output_dir.mkdir(exist_ok=True) # 1. 数据读取与预处理 def load_and_preprocess_data(file_path): # 读取数据 try: data = pd.read_excel(file_path) print(f"成功读取数据,原始数据形状: {data.shape}") except Exception as e: print(f"读取数据失败: {e}") # 生成模拟数据用于测试 print("生成模拟数据用于测试...") np.random.seed(42) n_samples = 1000 # 生成基础特征 data = pd.DataFrame({ '心率(次/分)': np.random.randint(60, 120, n_samples), '血氧饱和度(%)': np.random.randint(85, 100, n_samples), '呼吸频率(次/分)': np.random.randint(12, 30, n_samples), '体温(℃)': np.round(np.random.normal(37, 0.5, n_samples), 1), 'GCS评分(分)': np.random.randint(3, 15, n_samples), '转运时长(min)': np.random.randint(5, 60, n_samples), '转运距离(km)': np.random.randint(1, 50, n_samples), '转运人员': np.random.choice(['护工', '医师+护士', '护士'], n_samples), '镇静剂使用': np.random.randint(0, 2, n_samples), '呼吸支持': np.random.choice(['无', '鼻氧管', '无创通气', '有创通气'], n_samples), '年龄': np.random.randint(18, 90, n_samples), 'APACHE II评分': np.random.randint(0, 40, n_samples), '既往高血压史': np.random.randint(0, 2, n_samples) }) # 生成目标变量(基于已知风险因素) risk = ( 0.03 * data['年龄'] + -0.15 * data['GCS评分(分)'] + 0.015 * data['转运时长(min)'] + 0.2 * data['既往高血压史'] + -0.02 * data['血氧饱和度(%)'] ) # 添加非线性效应 risk += np.where(data['GCS评分(分)'] < 8, 2.0, 0) # GCS < 8 风险增加 risk += np.where(data['转运时长(min)'] > 20, 0.015 * (data['转运时长(min)'] - 20), 0) # 转运时长>20分钟的额外风险 risk += np.where(data['年龄'] > 65, 0.02 * (data['年龄'] - 65), 0) # 年龄>65岁的额外风险 # 转换为概率 prob = 1 / (1 + np.exp(-risk)) data['病情变化'] = np.random.binomial(1, prob) # 处理缺失值 initial_shape = data.shape data = data.dropna() print(f"删除缺失值后的数据形状: {data.shape} (删除了{initial_shape[0] - data.shape[0]}行)") # 选取参与分析的字段 selected_vars = ['心率(次/分)', '血氧饱和度(%)', '呼吸频率(次/分)', '体温(℃)', 'GCS评分(分)', '转运时长(min)', '转运距离(km)', '转运人员', '镇静剂使用', '呼吸支持', '年龄', 'APACHE II评分', '既往高血压史', '病情变化'] # 确保所有必要字段都存在 missing_vars = [var for var in selected_vars if var not in data.columns] if missing_vars: print(f"警告: 数据中缺少以下变量: {missing_vars}") # 从selected_vars中移除缺失的变量 selected_vars = [var for var in selected_vars if var in data.columns] data = data[selected_vars].copy() # 对分类变量进行编码 categorical_vars = ['转运人员', '呼吸支持'] for var in categorical_vars: if var in data.columns: data[var] = pd.Categorical(data[var]).codes print(f"已对分类变量 {var} 进行编码") return data # 2. 基础逻辑回归模型 def build_logistic_regression(X_train, y_train, X_test, y_test): print("\n===== 基础逻辑回归模型 =====") # 建立模型 logreg = LogisticRegression(max_iter=1000, random_state=42) logreg.fit(X_train, y_train) # 预测与评估 y_pred = logreg.predict(X_test) y_pred_proba = logreg.predict_proba(X_test)[:, 1] print(f"准确率: {accuracy_score(y_test, y_pred):.4f}") print(f"AUC值: {roc_auc_score(y_test, y_pred_proba):.4f}") print("\n分类报告:") print(classification_report(y_test, y_pred)) # 输出系数和OR值 coefficients = logreg.coef_[0] odds_ratios = np.exp(coefficients).round(4) feature_names = X_train.columns result_df = pd.DataFrame({ '特征': feature_names, '系数': coefficients.round(4), 'OR值': odds_ratios }) print("\n特征系数与OR值:") print(result_df.to_string(index=False)) result_df.to_csv(output_dir / "逻辑回归系数.csv", index=False) # 计算拟合优度 X_train_with_constant = sm.add_constant(X_train) logit_model = sm.Logit(y_train, X_train_with_constant) result = logit_model.fit(disp=False) print(f"\n逻辑回归模型拟合优度(似然比统计量 G^2):{round(result.llr, 4)}") return logreg, result_df, y_pred_proba # 3. 弹性网络逻辑回归模型 def build_elastic_net(X_train, y_train, X_test, y_test): print("\n===== 弹性网络逻辑回归模型 =====") # 建立模型 elastic_net = LogisticRegressionCV( cv=5, penalty='elasticnet', solver='saga', l1_ratios=[.1, .5, .7, .9, .95, .99, 1], max_iter=1000, random_state=42 ) elastic_net.fit(X_train, y_train) # 预测与评估 y_pred = elastic_net.predict(X_test) y_pred_proba = elastic_net.predict_proba(X_test)[:, 1] print(f"准确率: {accuracy_score(y_test, y_pred):.4f}") print(f"AUC值: {roc_auc_score(y_test, y_pred_proba):.4f}") print("\n分类报告:") print(classification_report(y_test, y_pred)) # 输出系数和OR值 coefficients = elastic_net.coef_[0] odds_ratios = np.exp(coefficients).round(4) feature_names = X_train.columns result_df = pd.DataFrame({ '特征': feature_names, '系数': coefficients.round(4), 'OR值': odds_ratios }) print("\n特征系数与OR值:") print(result_df.to_string(index=False)) result_df.to_csv(output_dir / "弹性网络系数.csv", index=False) return elastic_net, result_df, y_pred_proba # 4. 非线性关系扩展(分段模型) def build_segmented_model(data): print("\n===== 非线性分段模型 =====") # 添加分段特征 data_copy = data.copy() # GCS评分阈值:8分 if 'GCS评分(分)' in data_copy.columns: gcs_threshold = 8 data_copy['GCS_分段'] = (data_copy['GCS评分(分)'] < gcs_threshold).astype(int) data_copy['GCS_交互'] = data_copy['GCS_分段'] * (data_copy['GCS评分(分)'] - gcs_threshold) print(f"已添加GCS评分分段特征(阈值={gcs_threshold}分)") # 转运时长阈值:20分钟 if '转运时长(min)' in data_copy.columns: time_threshold = 20 data_copy['转运时长_分段'] = (data_copy['转运时长(min)'] > time_threshold).astype(int) data_copy['转运时长_交互'] = data_copy['转运时长_分段'] * (data_copy['转运时长(min)'] - time_threshold) print(f"已添加转运时长分段特征(阈值={time_threshold}分钟)") # 年龄阈值:65岁 if '年龄' in data_copy.columns: age_threshold = 65 data_copy['年龄_分段'] = (data_copy['年龄'] > age_threshold).astype(int) data_copy['年龄_交互'] = data_copy['年龄_分段'] * (data_copy['年龄'] - age_threshold) print(f"已添加年龄分段特征(阈值={age_threshold}岁)") # 划分特征和目标变量 if '病情变化' not in data_copy.columns: raise ValueError("数据中缺少目标变量'病情变化'") X_new = data_copy.drop('病情变化', axis=1) y = data_copy['病情变化'] # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split( X_new, y, test_size=0.2, random_state=42 ) # 建立分段逻辑回归模型 segmented_model = LogisticRegression(max_iter=1000, random_state=42) segmented_model.fit(X_train, y_train) # 预测与评估 y_pred = segmented_model.predict(X_test) y_pred_proba = segmented_model.predict_proba(X_test)[:, 1] print(f"准确率: {accuracy_score(y_test, y_pred):.4f}") print(f"AUC值: {roc_auc_score(y_test, y_pred_proba):.4f}") print("\n分类报告:") print(classification_report(y_test, y_pred)) # 输出阈值相关特征的系数 threshold_features = [] if 'GCS评分(分)' in data_copy.columns: threshold_features.extend(['GCS评分(分)', 'GCS_分段', 'GCS_交互']) if '转运时长(min)' in data_copy.columns: threshold_features.extend(['转运时长(min)', '转运时长_分段', '转运时长_交互']) if '年龄' in data_copy.columns: threshold_features.extend(['年龄', '年龄_分段', '年龄_交互']) if threshold_features: coef_df = pd.DataFrame({ '特征': threshold_features, '系数': [segmented_model.coef_[0][X_new.columns.get_loc(f)] for f in threshold_features] }) print("\n阈值相关特征系数:") print(coef_df.to_string(index=False)) coef_df.to_csv(output_dir / "分段模型阈值特征系数.csv", index=False) else: print("未找到需要处理的阈值特征") return segmented_model, X_train, X_test, y_train, y_test, y_pred_proba # 5. GAM模型(优化版,确保结果输出) def build_gam_model(X_train, y_train, X_test, y_test): print("\n===== 广义相加模型(GAM) =====") # 确定特征名称和索引 feature_names = X_train.columns.tolist() n_features = len(feature_names) # 识别需要用平滑函数处理的特征 nonlinear_features = [] feature_indices = {} for i, name in enumerate(feature_names): feature_indices[name] = i if 'GCS评分(分)' in name: nonlinear_features.append(i) elif '年龄' in name and '分段' not in name and '交互' not in name: nonlinear_features.append(i) elif '转运时长(min)' in name and '分段' not in name and '交互' not in name: nonlinear_features.append(i) print(f"将使用平滑函数处理的非线性特征: {[feature_names[i] for i in nonlinear_features]}") print(f"将使用线性项处理的特征: {[feature_names[i] for i in range(n_features) if i not in nonlinear_features]}") # 构建GAM公式:平滑项 + 线性项 terms = [] for i in nonlinear_features: terms.append(s(i, n_splines=5, lam=0.6)) # 添加平滑项 # 添加线性项 linear_indices = [i for i in range(n_features) if i not in nonlinear_features] terms.extend(linear_indices) # 构建并拟合GAM模型 try: gam = LogisticGAM(terms) gam.fit(X_train.values, y_train.values) print("GAM模型拟合成功") except Exception as e: print(f"GAM模型拟合失败: {e}") print("尝试简化模型...") # 简化模型,只保留关键平滑项 gam = LogisticGAM(s(nonlinear_features[0]) if nonlinear_features else []) gam.fit(X_train.values, y_train.values) # 预测与评估 y_pred_proba = gam.predict_proba(X_test.values) y_pred = (y_pred_proba > 0.5).astype(int) print(f"准确率: {accuracy_score(y_test, y_pred):.4f}") print(f"AUC值: {roc_auc_score(y_test, y_pred_proba):.4f}") print("\n分类报告:") print(classification_report(y_test, y_pred)) # 详细输出GAM模型结果 print("\n===== GAM模型详细结果 =====") print(f"模型自由度: {gam.df_}") print(f"模型AIC: {gam.aic_:.4f}") # 输出各特征的显著性 print("\n特征显著性检验:") p_values = gam.statistics_['p_values'] sig_df = pd.DataFrame({ '特征': [f"特征{i} ({feature_names[i]})" if i < len(feature_names) else f"平滑项{i}" for i in range(len(p_values))], 'p值': p_values.round(4), '显著性': ['*' * min(3, int(-np.log10(p)) + 1) if p < 0.05 else 'ns' for p in p_values] }) print(sig_df.to_string(index=False)) sig_df.to_csv(output_dir / "GAM特征显著性.csv", index=False) return gam, feature_names, y_pred_proba # 6. 模型可视化(优化版,确保图像输出) def visualize_results(data, logreg_proba, elastic_proba, segmented_proba, gam_proba, gam, feature_names, X_test, y_test): print("\n===== 生成模型可视化图像 =====") # 1. 模型预测概率对比 plt.figure() sns.kdeplot(logreg_proba, label='基础逻辑回归', fill=True, alpha=0.3) sns.kdeplot(elastic_proba, label='弹性网络', fill=True, alpha=0.3) sns.kdeplot(segmented_proba, label='分段模型', fill=True, alpha=0.3) sns.kdeplot(gam_proba, label='GAM模型', fill=True, alpha=0.3) plt.title('各模型预测概率分布') plt.xlabel('病情变化概率') plt.ylabel('密度') plt.legend() plt.tight_layout() plt.savefig(output_dir / '模型预测概率分布.png', bbox_inches='tight') plt.close() print("已保存: 模型预测概率分布.png") # 2. 特征重要性对比(基于系数绝对值) if 'logreg' in globals() and 'elastic_net' in globals(): plt.figure(figsize=(12, 8)) logreg_coef = np.abs(logreg.coef_[0]) elastic_coef = np.abs(elastic_net.coef_[0]) # 只显示重要性最高的前10个特征 indices = np.argsort(logreg_coef)[-min(10, len(logreg_coef)):] features = [feature_names[i] for i in indices] width = 0.35 x = np.arange(len(features)) plt.bar(x - width / 2, logreg_coef[indices], width, label='基础逻辑回归') plt.bar(x + width / 2, elastic_coef[indices], width, label='弹性网络') plt.xticks(x, features, rotation=90) plt.title('特征重要性对比(系数绝对值)') plt.ylabel('系数绝对值') plt.legend() plt.tight_layout() plt.savefig(output_dir / '特征重要性对比.png', bbox_inches='tight') plt.close() print("已保存: 特征重要性对比.png") # 3. GAM模型平滑函数可视化 if hasattr(gam, 'partial_dependence'): # GCS评分的非线性效应 if 'GCS评分(分)' in feature_names: try: gcs_idx = feature_names.index('GCS评分(分)') plt.figure() XX = gam.generate_X_grid(term=gcs_idx) pdep, confi = gam.partial_dependence(term=gcs_idx, X=XX, width=0.95) plt.plot(XX[:, gcs_idx], pdep, label='边际效应') plt.fill_between(XX[:, gcs_idx], confi[:, 0], confi[:, 1], alpha=0.3) plt.axvline(x=8, color='r', linestyle='--', label='阈值=8分') plt.title('GCS评分对病情变化的非线性效应') plt.xlabel('GCS评分(分)') plt.ylabel('对log odds的影响') plt.axhline(y=0, color='k', linestyle='-', alpha=0.3) plt.legend() plt.tight_layout() plt.savefig(output_dir / 'GCS评分非线性效应.png', bbox_inches='tight') plt.close() print("已保存: GCS评分非线性效应.png") except Exception as e: print(f"绘制GCS评分非线性效应失败: {e}") # 转运时长的非线性效应 if '转运时长(min)' in feature_names: try: time_idx = feature_names.index('转运时长(min)') plt.figure() XX = gam.generate_X_grid(term=time_idx) pdep, confi = gam.partial_dependence(term=time_idx, X=XX, width=0.95) plt.plot(XX[:, time_idx], pdep, label='边际效应') plt.fill_between(XX[:, time_idx], confi[:, 0], confi[:, 1], alpha=0.3) plt.axvline(x=20, color='r', linestyle='--', label='阈值=20分钟') plt.title('转运时长对病情变化的非线性效应') plt.xlabel('转运时长(min)') plt.ylabel('对log odds的影响') plt.axhline(y=0, color='k', linestyle='-', alpha=0.3) plt.legend() plt.tight_layout() plt.savefig(output_dir / '转运时长非线性效应.png', bbox_inches='tight') plt.close() print("已保存: 转运时长非线性效应.png") except Exception as e: print(f"绘制转运时长非线性效应失败: {e}") # 年龄的非线性效应 if '年龄' in feature_names: try: age_idx = feature_names.index('年龄') plt.figure() XX = gam.generate_X_grid(term=age_idx) pdep, confi = gam.partial_dependence(term=age_idx, X=XX, width=0.95) plt.plot(XX[:, age_idx], pdep, label='边际效应') plt.fill_between(XX[:, age_idx], confi[:, 0], confi[:, 1], alpha=0.3) plt.axvline(x=65, color='r', linestyle='--', label='阈值=65岁') plt.title('年龄对病情变化的非线性效应') plt.xlabel('年龄') plt.ylabel('对log odds的影响') plt.axhline(y=0, color='k', linestyle='-', alpha=0.3) plt.legend() plt.tight_layout() plt.savefig(output_dir / '年龄非线性效应.png', bbox_inches='tight') plt.close() print("已保存: 年龄非线性效应.png") except Exception as e: print(f"绘制年龄非线性效应失败: {e}") # 4. ROC曲线对比 from sklearn.metrics import roc_curve plt.figure() for name, proba in [ ('基础逻辑回归', logreg_proba), ('弹性网络', elastic_proba), ('分段模型', segmented_proba), ('GAM模型', gam_proba) ]: fpr, tpr, _ = roc_curve(y_test, proba) auc = roc_auc_score(y_test, proba) plt.plot(fpr, tpr, label=f'{name} (AUC = {auc:.3f})') plt.plot([0, 1], [0, 1], 'k--') plt.xlabel('假阳性率') plt.ylabel('真阳性率') plt.title('各模型ROC曲线对比') plt.legend() plt.tight_layout() plt.savefig(output_dir / '模型ROC曲线对比.png', bbox_inches='tight') plt.close() print("已保存: 模型ROC曲线对比.png") # 主函数 if __name__ == "__main__": # 加载数据(如果没有实际数据,会生成模拟数据) data = load_and_preprocess_data(r"C:\Users\Ran\Desktop\医疗转运模拟数据.xlsx") # 准备基础模型数据 if '病情变化' not in data.columns: raise ValueError("数据中必须包含'病情变化'列作为目标变量") X = data.drop('病情变化', axis=1) y = data['病情变化'] X_train, X_test, y_train, y_test = train_test_split( X, y, test_size=0.2, random_state=42 ) # 建立并评估各模型 logreg, logreg_results, logreg_proba = build_logistic_regression( X_train, y_train, X_test, y_test ) elastic_net, elastic_results, elastic_proba = build_elastic_net( X_train, y_train, X_test, y_test ) segmented_model, X_train_seg, X_test_seg, y_train_seg, y_test_seg, segmented_proba = build_segmented_model( data.copy() ) gam, feature_names, gam_proba = build_gam_model( X_train_seg, y_train_seg, X_test_seg, y_test_seg ) # 可视化结果 visualize_results( data, logreg_proba, elastic_proba, segmented_proba, gam_proba, gam, feature_names, X_test_seg, y_test_seg ) # 模型比较总结 print("\n===== 模型比较总结 =====") summary_df = pd.DataFrame({ '模型': ['基础逻辑回归', '弹性网络回归', '分段模型', 'GAM模型'], 'AUC值': [ roc_auc_score(y_test, logreg_proba), roc_auc_score(y_test, elastic_proba), roc_auc_score(y_test_seg, segmented_proba), roc_auc_score(y_test_seg, gam_proba) ], '准确率': [ accuracy_score(y_test, (logreg_proba > 0.5).astype(int)), accuracy_score(y_test, (elastic_proba > 0.5).astype(int)), accuracy_score(y_test_seg, (segmented_proba > 0.5).astype(int)), accuracy_score(y_test_seg, (gam_proba > 0.5).astype(int)) ] }) summary_df['AUC值'] = summary_df['AUC值'].round(4) summary_df['准确率'] = summary_df['准确率'].round(4) print(summary_df.to_string(index=False)) summary_df.to_csv(output_dir / "模型比较总结.csv", index=False) print(f"\n所有结果已保存到目录: {output_dir.absolute()}") print("程序运行完成") 修改 C:\python\py\.venv\Scripts\python.exe C:\python\py\7..py Traceback (most recent call last): File "C:\python\py\7..py", line 3, in <module> from sklearn.linear_model import LogisticRegression, LogisticRegressionCV File "C:\python\py\.venv\Lib\site-packages\sklearn\linear_model\__init__.py", line 35, in <module> from ._logistic import LogisticRegression, LogisticRegressionCV File "C:\python\py\.venv\Lib\site-packages\sklearn\linear_model\_logistic.py", line 485 l2_reg_strength = 1.0 / (C * sw_sum) IndentationError: unexpected indent 进程已结束,退出代码为 1

大家在看

recommend-type

商品条形码及生产日期识别数据集

商品条形码及生产日期识别数据集,数据集样本数量为2156,所有图片已标注为YOLO txt格式,划分为训练集、验证集和测试集,能直接用于YOLO算法的训练。可用于跟本识别目标相关的蓝桥杯比赛项目
recommend-type

7.0 root.rar

Android 7.0 MTK MT8167 user 版本root权限修改,super权限修改,当第三方APP想要获取root权限时,会弹出窗口访问是否给与改APP root权限,同意后该APP可以得到root权限,并操作相关内容
recommend-type

RK3308开发资料

RK3308全套资料,《06 RK3308 硬件设计介绍》《07 RK3308 软件方案介绍》《08 RK3308 Audio开发介绍》《09 RK3308 WIFI-BT功能及开发介绍》
recommend-type

即时记截图精灵 v2.00.rar

即时记截图精灵是一款方便易用,功能强大的专业截图软件。   软件当前版本提供以下功能:   1. 可以通过鼠标选择截图区域,选择区域后仍可通过鼠标进行边缘拉动或拖拽来调整所选区域的大小和位置。   2. 可以将截图复制到剪切板,或者保存为图片文件,或者自动打开windows画图程序进行编辑。   3. 保存文件支持bmp,jpg,png,gif和tif等图片类型。   4. 新增新浪分享按钮。
recommend-type

WinUSB4NuVCOM_NUC970+NuWriter.rar

NUC970 USB启动所需的USB驱动,已经下载工具NuWriter,可以用于裸机启动NUC970调试,将USB接电脑后需要先安装WinUSB4NuVCOM_NUC970驱动,然后使用NuWriter初始化硬件,之后就可以使用jlink或者ulink调试。

最新推荐

recommend-type

C#类库封装:简化SDK调用实现多功能集成,构建地磅无人值守系统

内容概要:本文介绍了利用C#类库封装多个硬件设备的SDK接口,实现一系列复杂功能的一键式调用。具体功能包括身份证信息读取、人证识别、车牌识别(支持臻识和海康摄像头)、LED显示屏文字输出、称重数据读取、二维码扫描以及语音播报。所有功能均被封装为简单的API,极大降低了开发者的工作量和技术门槛。文中详细展示了各个功能的具体实现方式及其应用场景,如身份证读取、人证核验、车牌识别等,并最终将这些功能整合到一起,形成了一套完整的地磅称重无人值守系统解决方案。 适合人群:具有一定C#编程经验的技术人员,尤其是需要快速集成多种硬件设备SDK的应用开发者。 使用场景及目标:适用于需要高效集成多种硬件设备SDK的项目,特别是那些涉及身份验证、车辆管理、物流仓储等领域的企业级应用。通过使用这些封装好的API,可以大大缩短开发周期,降低维护成本,提高系统的稳定性和易用性。 其他说明:虽然封装后的API极大地简化了开发流程,但对于一些特殊的业务需求,仍然可能需要深入研究底层SDK。此外,在实际部署过程中,还需考虑网络环境、硬件兼容性等因素的影响。
recommend-type

基于STM32F1的BLDC无刷直流电机与PMSM永磁同步电机源码解析:传感器与无传感器驱动详解

基于STM32F1的BLDC无刷直流电机和PMSM永磁同步电机的驱动实现方法,涵盖了有传感器和无传感两种驱动方式。对于BLDC电机,有传感器部分采用霍尔传感器进行六步换相,无传感部分则利用反电动势过零点检测实现换相。对于PMSM电机,有传感器部分包括霍尔传感器和编码器的方式,无传感部分则采用了滑模观测器进行矢量控制(FOC)。文中不仅提供了详细的代码片段,还分享了许多调试经验和技巧。 适合人群:具有一定嵌入式系统和电机控制基础知识的研发人员和技术爱好者。 使用场景及目标:适用于需要深入了解和实现BLDC和PMSM电机驱动的开发者,帮助他们掌握不同传感器条件下的电机控制技术和优化方法。 其他说明:文章强调了实际调试过程中可能遇到的问题及其解决方案,如霍尔传感器的中断触发换相、反电动势过零点检测的采样时机、滑模观测器的参数调整以及编码器的ABZ解码等。
recommend-type

基于Java的跨平台图像处理软件ImageJ:多功能图像编辑与分析工具

内容概要:本文介绍了基于Java的图像处理软件ImageJ,详细阐述了它的跨平台特性、多线程处理能力及其丰富的图像处理功能。ImageJ由美国国立卫生研究院开发,能够在多种操作系统上运行,包括Windows、Mac OS、Linux等。它支持多种图像格式,如TIFF、PNG、GIF、JPEG、BMP、DICOM、FITS等,并提供图像栈功能,允许多个图像在同一窗口中进行并行处理。此外,ImageJ还提供了诸如缩放、旋转、扭曲、平滑处理等基本操作,以及区域和像素统计、间距、角度计算等高级功能。这些特性使ImageJ成为科研、医学、生物等多个领域的理想选择。 适合人群:需要进行图像处理的专业人士,如科研人员、医生、生物学家,以及对图像处理感兴趣的普通用户。 使用场景及目标:适用于需要高效处理大量图像数据的场合,特别是在科研、医学、生物学等领域。用户可以通过ImageJ进行图像的编辑、分析、处理和保存,提高工作效率。 其他说明:ImageJ不仅功能强大,而且操作简单,用户无需安装额外的运行环境即可直接使用。其基于Java的开发方式确保了不同操作系统之间的兼容性和一致性。
recommend-type

MATLAB语音识别系统:基于GUI的数字0-9识别及深度学习模型应用 · GUI v1.2

内容概要:本文介绍了一款基于MATLAB的语音识别系统,主要功能是识别数字0到9。该系统采用图形用户界面(GUI),方便用户操作,并配有详尽的代码注释和开发报告。文中详细描述了系统的各个组成部分,包括音频采集、信号处理、特征提取、模型训练和预测等关键环节。此外,还讨论了MATLAB在此项目中的优势及其面临的挑战,如提高识别率和处理背景噪音等问题。最后,通过对各模块的工作原理和技术细节的总结,为未来的研究和发展提供了宝贵的参考资料。 适合人群:对语音识别技术和MATLAB感兴趣的初学者、学生或研究人员。 使用场景及目标:适用于希望深入了解语音识别技术原理的人群,特别是希望通过实际案例掌握MATLAB编程技巧的学习者。目标是在实践中学习如何构建简单的语音识别应用程序。 其他说明:该程序需要MATLAB 2019b及以上版本才能正常运行,建议使用者确保软件环境符合要求。
recommend-type

c语言通讯录管理系统源码.zip

C语言项目源码
recommend-type

Teleport Pro教程:轻松复制网站内容

标题中提到的“复制别人网站的软件”指向的是一种能够下载整个网站或者网站的特定部分,然后在本地或者另一个服务器上重建该网站的技术或工具。这类软件通常被称作网站克隆工具或者网站镜像工具。 描述中提到了一个具体的教程网址,并提到了“天天给力信誉店”,这可能意味着有相关的教程或资源可以在这个网店中获取。但是这里并没有提供实际的教程内容,仅给出了网店的链接。需要注意的是,根据互联网法律法规,复制他人网站内容并用于自己的商业目的可能构成侵权,因此在此类工具的使用中需要谨慎,并确保遵守相关法律法规。 标签“复制 别人 网站 软件”明确指出了这个工具的主要功能,即复制他人网站的软件。 文件名称列表中列出了“Teleport Pro”,这是一款具体的网站下载工具。Teleport Pro是由Tennyson Maxwell公司开发的网站镜像工具,允许用户下载一个网站的本地副本,包括HTML页面、图片和其他资源文件。用户可以通过指定开始的URL,并设置各种选项来决定下载网站的哪些部分。该工具能够帮助开发者、设计师或内容分析人员在没有互联网连接的情况下对网站进行离线浏览和分析。 从知识点的角度来看,Teleport Pro作为一个网站克隆工具,具备以下功能和知识点: 1. 网站下载:Teleport Pro可以下载整个网站或特定网页。用户可以设定下载的深度,例如仅下载首页及其链接的页面,或者下载所有可访问的页面。 2. 断点续传:如果在下载过程中发生中断,Teleport Pro可以从中断的地方继续下载,无需重新开始。 3. 过滤器设置:用户可以根据特定的规则过滤下载内容,如排除某些文件类型或域名。 4. 网站结构分析:Teleport Pro可以分析网站的链接结构,并允许用户查看网站的结构图。 5. 自定义下载:用户可以自定义下载任务,例如仅下载图片、视频或其他特定类型的文件。 6. 多任务处理:Teleport Pro支持多线程下载,用户可以同时启动多个下载任务来提高效率。 7. 编辑和管理下载内容:Teleport Pro具备编辑网站镜像的能力,并可以查看、修改下载的文件。 8. 离线浏览:下载的网站可以在离线状态下浏览,这对于需要测试网站在不同环境下的表现的情况十分有用。 9. 备份功能:Teleport Pro可以用来备份网站,确保重要数据的安全。 在实际使用此类工具时,需要注意以下几点: - 著作权法:复制网站内容可能侵犯原作者的版权,因此在使用此类工具时,必须确保有合法权利去下载和使用目标网站的内容。 - 服务条款:许多网站的服务条款明确禁止未经授权的网站克隆。因此,在使用此类软件之前,应当仔细阅读并遵守目标网站的服务条款。 - 数据隐私:下载含有个人数据的网站可能触及隐私保护法律,特别是在欧洲通用数据保护条例(GDPR)等法规的环境下。 - 网络安全:随意下载网站可能导致恶意软件和病毒的传播,用户应当使用最新的反病毒软件,并在安全的环境中进行操作。 综上所述,虽然“复制别人网站的软件”在技术上是可行的,且可以用于多种正当目的,但在使用此类工具时,必须遵守法律法规和道德规范,不可侵犯他人的合法权益。
recommend-type

【跨平台开发者的必读】:解决Qt5Widgetsd.lib目标计算机类型冲突终极指南

# 1. 跨平台开发与Qt框架简介 跨平台开发已经成为现代软件开发中不可或缺的一部分,它使得开发者能够构建出能够在多种操作系统上运行的应用程序,从而触及更广泛的用户群体。在这其中,Qt框架作为一套成熟的跨平台应用程序和用户界面框架,扮演着关键角色。Qt不仅仅是一个跨平台的工具集,它的设计哲学还包含了模块化和可扩展性,使其能够适应各种规模和复杂度的项目。本章节我们将简要介绍
recommend-type

普通RNN结构和特点

<think>首先,用户的问题是:“我想了解普通RNN的结构及其特点请问RNN循环神经网络结构特点工作原理”。这涉及到RNN的结构、特点和工作原理。根据系统级指令:-所有行内数学表达式必须使用$...$格式。-独立公式必须使用$$...$$格式并单独成段。-LaTeX语法正确。-使用中文回答。-生成相关问题。-回答中引用的段落末尾自然地添加引用标识。用户可见层指令:-回答结构清晰,帮助用户逐步解决问题。-保证回答真实可靠。参考站内引用:-引用[1]:关于RNN的基本介绍,为什么需要RNN。-引用[2]:关于RNN的工作原理、结构图,以及与其他网络的比较。用户上一次的问题和我的回答:用户是第一次
recommend-type

探讨通用数据连接池的核心机制与应用

根据给定的信息,我们能够推断出讨论的主题是“通用数据连接池”,这是一个在软件开发和数据库管理中经常用到的重要概念。在这个主题下,我们可以详细阐述以下几个知识点: 1. **连接池的定义**: 连接池是一种用于管理数据库连接的技术,通过维护一定数量的数据库连接,使得连接的创建和销毁操作更加高效。开发者可以在应用程序启动时预先创建一定数量的连接,并将它们保存在一个池中,当需要数据库连接时,可以直接从池中获取,从而降低数据库连接的开销。 2. **通用数据连接池的概念**: 当提到“通用数据连接池”时,它意味着这种连接池不仅支持单一类型的数据库(如MySQL、Oracle等),而且能够适应多种不同数据库系统。设计一个通用的数据连接池通常需要抽象出一套通用的接口和协议,使得连接池可以兼容不同的数据库驱动和连接方式。 3. **连接池的优点**: - **提升性能**:由于数据库连接创建是一个耗时的操作,连接池能够减少应用程序建立新连接的时间,从而提高性能。 - **资源复用**:数据库连接是昂贵的资源,通过连接池,可以最大化现有连接的使用,避免了连接频繁创建和销毁导致的资源浪费。 - **控制并发连接数**:连接池可以限制对数据库的并发访问,防止过载,确保数据库系统的稳定运行。 4. **连接池的关键参数**: - **最大连接数**:池中能够创建的最大连接数。 - **最小空闲连接数**:池中保持的最小空闲连接数,以应对突发的连接请求。 - **连接超时时间**:连接在池中保持空闲的最大时间。 - **事务处理**:连接池需要能够管理不同事务的上下文,保证事务的正确执行。 5. **实现通用数据连接池的挑战**: 实现一个通用的连接池需要考虑到不同数据库的连接协议和操作差异。例如,不同的数据库可能有不同的SQL方言、认证机制、连接属性设置等。因此,通用连接池需要能够提供足够的灵活性,允许用户配置特定数据库的参数。 6. **数据连接池的应用场景**: - **Web应用**:在Web应用中,为了处理大量的用户请求,数据库连接池可以保证数据库连接的快速复用。 - **批处理应用**:在需要大量读写数据库的批处理作业中,连接池有助于提高整体作业的效率。 - **微服务架构**:在微服务架构中,每个服务可能都需要与数据库进行交互,通用连接池能够帮助简化服务的数据库连接管理。 7. **常见的通用数据连接池技术**: - **Apache DBCP**:Apache的一个Java数据库连接池库。 - **C3P0**:一个提供数据库连接池和控制工具的开源Java框架。 - **HikariCP**:目前性能最好的开源Java数据库连接池之一。 - **BoneCP**:一个高性能的开源Java数据库连接池。 - **Druid**:阿里巴巴开源的一个数据库连接池,提供了对性能监控的高级特性。 8. **连接池的管理与监控**: 为了保证连接池的稳定运行,开发者需要对连接池的状态进行监控,并对其进行适当的管理。监控指标可能包括当前活动的连接数、空闲的连接数、等待获取连接的请求队列长度等。一些连接池提供了监控工具或与监控系统集成的能力。 9. **连接池的配置和优化**: 连接池的性能与连接池的配置密切相关。需要根据实际的应用负载和数据库性能来调整连接池的参数。例如,在高并发的场景下,可能需要增加连接池中连接的数量。另外,适当的线程池策略也可以帮助连接池更好地服务于多线程环境。 10. **连接池的应用案例**: 一个典型的案例是电商平台在大型促销活动期间,用户访问量激增,此时通用数据连接池能够保证数据库操作的快速响应,减少因数据库连接问题导致的系统瓶颈。 总结来说,通用数据连接池是现代软件架构中的重要组件,它通过提供高效的数据库连接管理,增强了软件系统的性能和稳定性。了解和掌握连接池的原理及实践,对于任何涉及数据库交互的应用开发都至关重要。在实现和应用连接池时,需要关注其设计的通用性、配置的合理性以及管理的有效性,确保在不同的应用场景下都能发挥出最大的效能。
recommend-type

【LabVIEW网络通讯终极指南】:7个技巧提升UDP性能和安全性

# 摘要 本文系统介绍了LabVIEW在网络通讯中的应用,尤其是针对UDP协议的研究与优化。首先,阐述了UDP的原理、特点及其在LabVIEW中的基础应用。随后,本文深入探讨了通过调整数据包大小、实现并发通信及优化缓冲区管理等技巧来优化UDP性能的LabVIEW方法。接着,文章聚焦于提升UDP通信安全性,介绍了加密技术和认证授权机制在LabVIEW中的实现,以及防御网络攻击的策略。最后,通过具体案例展示了LabVIEW在实时数据采集和远程控制系统中的高级应用,并展望了LabVIEW与UDP通讯技术的未来发展趋势及新兴技术的影响。 # 关键字 LabVIEW;UDP网络通讯;性能优化;安全性;