任务25算法模型性能度量标签编码模型持久化练习:机器学习算法基本使用(2024年人工智能初赛题) 任务:MineralType.xlsx为本题的数据文件,其中第1列为矿物类型,其余列为矿物特征信息。现要求利用Python编写代码利用scikit-learn库构建模型,实现矿物分类,具体要求如下: (1) 从数据中随机抽选训练集和测试集,比例为8:2,且随机种子为10; (2) 建立不少于3种机器学习模型。 (3) 打印每种模型下测试集的accuracy及各个类别的recall值,并保留6位小数位数。 (4) 最后将最高的模型测试集accuracy值打印输出。accuracy值越高则得分越高。 from sklearn.model_selection import train_test_split from sklearn.utils import Bunch df=pd.read_excel('MineralType.xlsx') labels = df.pop('矿物类型') bunch = Bunch(data=df.values, target=labels.values, feature_name=list(df.columns), DESCR="特征为元素含量,标签0~3") x_train ,x_test,y_train,y_test = train_test_split(bunch.data,bunch.target,test_size=0.2,random_state=10) print('第一种:')
时间: 2025-06-13 07:28:38 浏览: 27
<think>嗯,用户现在需要完成一个机器学习的分类任务,题目是关于矿物类型的分类。数据文件是MineralType.xlsx,第一列是矿物类型,其他列是特征。用户需要用Python和scikit-learn库来构建模型,满足几个具体要求。我得仔细分析每一个要求,然后一步步指导用户怎么做。
首先,第一个要求是从数据中随机抽取训练集和测试集,比例8:2,随机种子设为10。用户已经用了train_test_split函数,看起来这部分代码已经有了。不过可能需要检查是否正确分离了数据和标签,尤其是df.pop('矿物类型')是否正确移除了标签列,并将剩下的作为特征。
第二个要求是建立不少于三种机器学习模型。用户可能对选择哪些模型有疑问。常见的分类模型比如逻辑回归、随机森林、支持向量机、K近邻、梯度提升等都可以考虑。需要确保代码中导入并实例化了至少三种不同的模型,比如用户示例中可能用了逻辑回归、随机森林和SVM。
第三个要求是打印每种模型在测试集上的accuracy和各分类的recall值,保留六位小数。这里需要注意scikit-learn中的metrics模块,比如使用accuracy_score和recall_score,其中recall需要指定average参数为None来得到每个类别的值。同时,输出格式需要调整小数位数,可以用round函数或者格式化字符串,比如"{:.6f}".format()。
第四个要求是输出最高的accuracy值,这需要将各个模型的准确率保存下来,比较后取最大值。可能要用一个列表或者字典来存储模型名称和对应的准确率,然后找出最大值。
接下来,用户提供的代码片段中已经导入了train_test_split,并完成了数据的分割。然后打印了“第一种:”,可能接下来需要实例化第一个模型,比如逻辑回归,训练模型,预测,然后计算指标。
可能需要检查是否正确处理了标签编码,比如矿物类型是否是字符串类型,是否需要转换为数值。但题目中提到标签是0~3,可能已经编码好了,所以不需要额外处理。但用户应该确认数据中的标签是否已经是数值型,否则需要用LabelEncoder进行转换。
模型持久化部分,题目里并没有提到需要保存模型,所以可能不需要处理。但任务描述中的“模型持久化练习”可能是一个误解,或者可能题目有其他部分,需要确认。但根据当前问题,可能不需要。
在构建模型时,需要注意不同模型可能需要不同的预处理,比如标准化。例如,SVM和KNN对特征的缩放敏感,可能需要使用StandardScaler进行标准化,而决策树和随机森林则不需要。因此,在代码中可能需要添加预处理步骤,比如使用Pipeline或者单独进行标准化处理。但题目中没有明确要求,所以可能不需要,但可能会影响模型性能,用户可能需要知道这一点。
另外,数据是否存在类别不平衡问题?如果某些矿物类型的样本很少,recall可能会低,这时候可能需要使用分层抽样,但train_test_split中的stratify参数是否被使用?用户代码中目前没有stratify参数,可能影响结果的可重复性或者性能,但题目要求随机种子为10,可能不需要分层,但需要注意。
现在,用户可能需要完成三种模型的训练和评估。例如,可以选择逻辑回归、随机森林、SVM作为三种模型。每个模型都需要进行fit,predict,然后计算accuracy和recall。
对于recall的计算,每个类别的recall需要使用recall_score(y_test, y_pred, average=None),然后按六位小数打印。例如:
print("Recall per class:", [round(r, 6) for r in recall_scores])
或者使用numpy的around函数。
最后,比较各个模型的accuracy,找出最大值并打印。可以用一个变量来保存最高准确率,或者在最后比较所有模型的准确率列表。
可能的代码结构如下:
models = {
"Logistic Regression": LogisticRegression(),
"Random Forest": RandomForestClassifier(),
"SVM": SVC()
}
highest_accuracy = 0
for name, model in models.items():
model.fit(x_train, y_train)
y_pred = model.predict(x_test)
acc = accuracy_score(y_test, y_pred)
recall = recall_score(y_test, y_pred, average=None)
# 打印结果
if acc > highest_accuracy:
highest_accuracy = acc
print("最高的准确率:", highest_accuracy)
不过需要注意,可能有些模型需要调整参数,比如max_iter增加,否则可能不收敛。例如,逻辑回归默认的max_iter是100,如果数据复杂,可能需要调大,比如max_iter=1000,否则会警告。用户可能需要添加这些参数以避免警告或错误。
此外,随机森林的随机种子可能需要设置,以保证结果可重复。例如,RandomForestClassifier(random_state=10)。
同理,SVM也可以设置random_state,如果使用了基于随机性的部分。
总结步骤:
1. 导入必要的库,包括pandas、sklearn的模型、指标、预处理等。
2. 读取数据,分离特征和标签。
3. 划分训练集和测试集,random_state=10,test_size=0.2。
4. 定义三种不同的分类模型,注意参数设置(如max_iter,random_state等)。
5. 对每个模型进行训练,预测,计算accuracy和recall。
6. 格式化输出结果,保留六位小数。
7. 比较所有模型的accuracy,输出最大值。
可能的代码示例:
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, recall_score
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
from sklearn.svm import SVC
# 读取数据
df = pd.read_excel('MineralType.xlsx')
labels = df.pop('矿物类型')
X = df.values
y = labels.values
# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=10)
# 定义模型
models = {
"Logistic Regression": LogisticRegression(max_iter=1000, random_state=10),
"Random Forest": RandomForestClassifier(random_state=10),
"SVM": SVC(random_state=10)
}
highest_acc = 0.0
for name, model in models.items():
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
acc = accuracy_score(y_test, y_pred)
recall = recall_score(y_test, y_pred, average=None)
print(f"{name}:")
print(f"测试集准确率:{acc:.6f}")
print("各类别召回率:", [f"{r:.6f}" for r in recall])
print()
if acc > highest_acc:
highest_acc = acc
print(f"最高模型测试集准确率:{highest_acc:.6f}")
这样应该可以满足题目的所有要求。需要注意的是,可能不同模型需要不同的预处理,但题目中没有提到,所以可能不需要。另外,如果数据中存在缺失值或需要标准化,可能需要处理,但题目中的数据可能已经处理好,用户只需直接使用。</think>以下是针对该任务的完整代码实现及分步说明:
---
### 代码实现
```python
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, recall_score
from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
from sklearn.svm import SVC
# 读取数据并分割特征与标签
df = pd.read_excel('MineralType.xlsx')
labels = df.pop('矿物类型')
X = df.values
y = labels.values
# 划分训练集和测试集(8:2,随机种子10)
X_train, X_test, y_train, y_test = train_test_split(
X, y, test_size=0.2, random_state=10
)
# 定义三种分类模型
models = {
"逻辑回归": LogisticRegression(max_iter=1000, random_state=10),
"随机森林": RandomForestClassifier(random_state=10),
"支持向量机": SVC(random_state=10)
}
highest_accuracy = 0.0 # 记录最高准确率
# 遍历模型训练与评估
for model_name, model in models.items():
# 训练模型
model.fit(X_train, y_train)
# 预测测试集
y_pred = model.predict(X_test)
# 计算指标
acc = accuracy_score(y_test, y_pred)
recall = recall_score(y_test, y_pred, average=None)
# 打印结果
print(f"【{model_name}】")
print(f"测试集准确率: {acc:.6f}")
print("各类别召回率:", [f"{r:.6f}" for r in recall])
print("-" * 50)
# 更新最高准确率
if acc > highest_accuracy:
highest_accuracy = acc
# 输出最高准确率
print("\n最高测试集准确率:", f"{highest_accuracy:.6f}")
```
---
### 关键步骤说明
1. **数据准备**
- 使用 `pd.read_excel` 读取Excel文件,`df.pop('矿物类型')` 分离标签列。
- 特征矩阵 `X` 为剩余列的值,标签向量 `y` 为矿物类型。
2. **数据集划分**
- `train_test_split` 按8:2比例划分数据集,`random_state=10` 确保可复现性。
3. **模型选择**
- 选择三种典型分类模型:
- **逻辑回归**:需设置 `max_iter=1000` 确保收敛。
- **随机森林**:集成学习代表模型。
- **支持向量机(SVM)**:适合小样本高维数据。
4. **性能评估**
- **准确率(Accuracy)**:整体预测正确的比例,计算方式:
$$\text{Accuracy} = \frac{\text{正确预测数}}{\text{总样本数}}$$
- **召回率(Recall)**:每个类别的查全率,计算方式:
$$\text{Recall}_i = \frac{\text{正确预测为类别 }i\text{ 的数量}}{\text{实际为类别 }i\text{ 的总数量}}$$
5. **结果输出**
- 格式化保留6位小数:`f"{acc:.6f}"`。
- 动态比较并记录最高准确率。
---
### 预期输出示例
```
【逻辑回归】
测试集准确率: 0.876543
各类别召回率: ['0.912345', '0.854321', '0.888889', '0.833333']
--------------------------------------------------
【随机森林】
测试集准确率: 0.912345
各类别召回率: ['0.934210', '0.894737', '0.909091', '0.875000']
--------------------------------------------------
【支持向量机】
测试集准确率: 0.851852
各类别召回率: ['0.888889', '0.800000', '0.857143', '0.818182']
--------------------------------------------------
最高测试集准确率: 0.912345
```
---
### 改进建议
1. **特征标准化**:SVM和逻辑回归对特征尺度敏感,可添加 `StandardScaler` 预处理。
2. **超参数调优**:使用 `GridSearchCV` 搜索最优参数。
3. **交叉验证**:通过交叉验证评估模型稳定性。
此代码可直接运行并满足题目要求,核心逻辑清晰,输出格式规范。
阅读全文