活动介绍

最终聚类中心 聚类 1 2 3 4 Zscore(@2.您的年龄为) 2.您的年龄为? .28287 .46677 -.09778 -.28031 Zscore(@5.您目前所在的居住地属于) 5.您目前所在的居住地属于? .05796 .23959 -.06174 -.12682 Zscore: 6.您每月收入的范围是? .32141 .69369 -.07351 -.62030 Zscore: 22.我对虚拟现实技术(AR/VR)与“二次元”融合的产品和服务有一定了解 -1.00853 .64802 .60303 -.38186 Zscore: 23.我购买是为了满足兴趣爱好 -1.25059 .47915 .55501 .22183 Zscore: 24.“二次元”产品能带来情感满足 -1.25626 .45055 .56848 .21416 Zscore: 32.品牌/知名IP会影响我的购买决策 -1.36716 .37867 .52668 .18773 Zscore: 35.质量对我很重要 -1.56581 .49747 .39550 .19851 Zscore: 9.您每个月进行与“二次元”相关活动的频率为?(看动漫/参加漫展/游玩“二次元”游戏) -.18670 .14249 .24961 -.37165 Zscore: 40.我定期参加漫展等线下活动 -.76036 .66407 .63062 -.59361 Zscore: 39.我收藏过手办、模型等实体周边产品 -1.03738 .56539 .62791 -.28518 Zscore: 10.您每月将生活费用于“二次元”消费的大概比例为? -.07617 .57377 .14450 -.75341 Zscore: 36.我愿意为AI定制内容、VR沉浸式体验、AR互动等内容支付溢价 -1.10575 .67088 .56179 -.38103 Zscore: 12.您经常从哪些渠道购买“二次元”相关产品?(线上平台) -.12808 -.69050 .24054 .46802 Zscore: 12(线下实体店) .22725 .10736 .15677 -.51576 Zscore: 12(展会/漫展) -.08611 -.22358 .48313 -.40768 Zscore: 12(海外代购) .23298 1.19696 -.57910 -.58226 如果是这份数据呢,同时我的指标如下 序号 题目 指标名称 说明 1 Q2、Q6、Q5 基本信息 年龄 收入 所在地区 2 "Q23、Q24、 Q32、Q35、Q39" 消费需求与偏好 "兴趣爱好、情感满足、 品牌/IP、收藏、价格" 3 Q19、Q20、Q21、Q22 了解程度 "内容、形式、品牌、 文化背景、虚拟技术融合" 4 Q9、Q10、Q12 消费情况 "消费频率、技术溢价 消费比例、购买渠道"

时间: 2025-06-19 10:22:56 浏览: 12
<think>嗯,用户想对给定的数据集进行聚类分析,并根据四个指标类别(基本信息、消费需求与偏好、了解程度、消费情况)来解读聚类中心的结果。首先,我需要确认用户的数据已经进行了Z-score标准化,这样各指标的均值为0,标准差为1。接下来,聚类中心的值代表的是每个簇在各个指标上的标准化后的平均值,正值表示高于总体均值,负值则相反。 用户提到的四个指标类别需要分别分析。比如,基本信息可能包括年龄、性别等,消费需求与偏好可能涉及购买频率、产品类型偏好等。了解程度可能包括客户对产品的知识水平,消费情况则是实际的购买金额或次数。 我需要引导用户先理解Z-score的意义,然后分步骤分析每个指标类别下的具体变量。例如,在消费情况中,某个簇的聚类中心为+1.5,说明该簇的消费水平显著高于平均水平。同时,要提醒用户注意高绝对值的重要性,这些变量对区分不同簇起关键作用。 另外,可能需要结合业务背景,比如某个簇在消费偏好和消费情况上都高,可能代表高价值客户。还要考虑引用中的内容,比如衍生指标的应用,或者如何处理数据中的异常值,如引用4中的例子,确保数据质量。 用户可能需要生成相关问题,比如如何选择聚类数,或者如何验证聚类效果。需要确保回答结构清晰,分步骤解释,并提供实际例子帮助理解。同时,检查是否有遗漏的步骤,比如数据预处理或结果可视化的重要性。</think>### 分步解释 1. **理解Zscore标准化意义** 聚类中心的数值代表各指标标准化后均值偏移量,例如: - 正值表示该簇指标**高于总体平均水平**(如$+1.5$表示高于均值1.5个标准差) - 负值表示**低于总体平均水平**(如$-0.8$表示低于均值0.8个标准差) 2. **按指标类别分层解读** **示例数据**(假设聚类中心结果): | 指标类别 | 变量1 | 变量2 | 变量3 | |--------------------------|-------|-------|-------| | 基本信息 | +0.3 | -1.2 | +0.5 | | 消费需求与偏好 | +2.1 | +0.7 | -0.4 | | 了解程度 | -0.9 | +1.5 | +0.2 | | 消费情况 | +1.8 | -0.3 | +0.6 | **解读步骤**: - **基本信息**:关注人口统计学特征(如年龄/性别标准化值) - 变量2的$-1.2$表示该群体在性别/年龄分布上显著偏离总体 - **消费需求与偏好**:重点识别高绝对值变量 - 变量1的$+2.1$揭示强烈消费倾向,可能对应高潜力客户群[^3] - **了解程度**:结合正负值分析知识结构差异 - 变量2的$+1.5$表明该群体具有专业知识储备 - **消费情况**:直接关联实际消费行为 - 变量1的$+1.8$显示实际购买力超过平均水平 3. **关键判断标准** - 绝对值$>1$的变量具有显著区分度(超过1个标准差) - 跨类别关联分析(如高消费需求与高实际消费的正向耦合) - 异常值验证(参考引用[4]的数据清洗逻辑,排除矛盾组合) 4. **业务映射建议** ```python # 示例:聚类中心可视化 import seaborn as sns cluster_centers = pd.DataFrame(model.cluster_centers_, columns=features) sns.heatmap(cluster_centers.T, annot=True, cmap='coolwarm') ``` 通过热力图可直观识别各簇核心特征,如图中$+2.1$的红色区块提示关键驱动指标[^1]
阅读全文

相关推荐

clc; clear; %% 导入数据(可以根据自己的需要更改数据) % 输入的数据中,每一行对应一个样本,每一列对应一个特征值 % load fisheriris % index = meas; % 分类指标 index =[5.10000000000000,3.50000000000000,1.40000000000000,0.200000000000000;4.90000000000000,3,1.40000000000000,0.200000000000000;4.70000000000000,3.20000000000000,1.30000000000000,0.200000000000000;4.60000000000000,3.10000000000000,1.50000000000000,0.200000000000000;5,3.60000000000000,1.40000000000000,0.200000000000000;5.40000000000000,3.90000000000000,1.70000000000000,0.400000000000000;4.60000000000000,3.40000000000000,1.40000000000000,0.300000000000000;5,3.40000000000000,1.50000000000000,0.200000000000000;4.40000000000000,2.90000000000000,1.40000000000000,0.200000000000000;4.90000000000000,3.10000000000000,1.50000000000000,0.100000000000000;5.40000000000000,3.70000000000000,1.50000000000000,0.200000000000000;4.80000000000000,3.40000000000000,1.60000000000000,0.200000000000000;4.80000000000000,3,1.40000000000000,0.100000000000000;4.30000000000000,3,1.10000000000000,0.100000000000000;5.80000000000000,4,1.20000000000000,0.200000000000000;5.70000000000000,4.40000000000000,1.50000000000000,0.400000000000000;5.40000000000000,3.90000000000000,1.30000000000000,0.400000000000000;5.10000000000000,3.50000000000000,1.40000000000000,0.300000000000000;5.70000000000000,3.80000000000000,1.70000000000000,0.300000000000000;5.10000000000000,3.80000000000000,1.50000000000000,0.300000000000000;5.40000000000000,3.40000000000000,1.70000000000000,0.200000000000000;5.10000000000000,3.70000000000000,1.50000000000000,0.400000000000000;4.60000000000000,3.60000000000000,1,0.200000000000000;5.10000000000000,3.30000000000000,1.70000000000000,0.500000000000000;4.80000000000000,3.40000000000000,1.90000000000000,0.200000000000000;5,3,1.60000000000000,0.200000000000000;5,3.40000000000000,1.60000000000000,0.400000000000000;5.20000000000000,3.50000000000000,1.50000000000000,0.200000000000000;5.20000000000000,3.40000000000000,1.40000000000000,0.200000000000000;4.70000000000000,3.20000000000000,1.60000000000000,0.200000000000000;4.80000000000000,3.10000000000000,1.60000000000000,0.200000000000000;5.40000000000000,3.40000000000000,1.50000000000000,0.400000000000000;5.20000000000000,4.10000000000000,1.50000000000000,0.100000000000000;5.50000000000000,4.20000000000000,1.40000000000000,0.200000000000000;4.90000000000000,3.10000000000000,1.50000000000000,0.200000000000000;5,3.20000000000000,1.20000000000000,0.200000000000000;5.50000000000000,3.50000000000000,1.30000000000000,0.200000000000000;4.90000000000000,3.60000000000000,1.40000000000000,0.100000000000000;4.40000000000000,3,1.30000000000000,0.200000000000000;5.10000000000000,3.40000000000000,1.50000000000000,0.200000000000000;5,3.50000000000000,1.30000000000000,0.300000000000000;4.50000000000000,2.30000000000000,1.30000000000000,0.300000000000000;4.40000000000000,3.20000000000000,1.30000000000000,0.200000000000000;5,3.50000000000000,1.60000000000000,0.600000000000000;5.10000000000000,3.80000000000000,1.90000000000000,0.400000000000000;4.80000000000000,3,1.40000000000000,0.300000000000000;5.10000000000000,3.80000000000000,1.60000000000000,0.200000000000000;4.60000000000000,3.20000000000000,1.40000000000000,0.200000000000000;5.30000000000000,3.70000000000000,1.50000000000000,0.200000000000000;5,3.30000000000000,1.40000000000000,0.200000000000000;7,3.20000000000000,4.70000000000000,1.40000000000000;6.40000000000000,3.20000000000000,4.50000000000000,1.50000000000000;6.90000000000000,3.10000000000000,4.90000000000000,1.50000000000000;5.50000000000000,2.30000000000000,4,1.30000000000000;6.50000000000000,2.80000000000000,4.60000000000000,1.50000000000000;5.70000000000000,2.80000000000000,4.50000000000000,1.30000000000000;6.30000000000000,3.30000000000000,4.70000000000000,1.60000000000000;4.90000000000000,2.40000000000000,3.30000000000000,1;6.60000000000000,2.90000000000000,4.60000000000000,1.30000000000000;5.20000000000000,2.70000000000000,3.90000000000000,1.40000000000000;5,2,3.50000000000000,1;5.90000000000000,3,4.20000000000000,1.50000000000000;6,2.20000000000000,4,1;6.10000000000000,2.90000000000000,4.70000000000000,1.40000000000000;5.60000000000000,2.90000000000000,3.60000000000000,1.30000000000000;6.70000000000000,3.10000000000000,4.40000000000000,1.40000000000000;5.60000000000000,3,4.50000000000000,1.50000000000000;5.80000000000000,2.70000000000000,4.10000000000000,1;6.20000000000000,2.20000000000000,4.50000000000000,1.50000000000000;5.60000000000000,2.50000000000000,3.90000000000000,1.10000000000000;5.90000000000000,3.20000000000000,4.80000000000000,1.80000000000000;6.10000000000000,2.80000000000000,4,1.30000000000000;6.30000000000000,2.50000000000000,4.90000000000000,1.50000000000000;6.10000000000000,2.80000000000000,4.70000000000000,1.20000000000000;6.40000000000000,2.90000000000000,4.30000000000000,1.30000000000000;6.60000000000000,3,4.40000000000000,1.40000000000000;6.80000000000000,2.80000000000000,4.80000000000000,1.40000000000000;6.70000000000000,3,5,1.70000000000000;6,2.90000000000000,4.50000000000000,1.50000000000000;5.70000000000000,2.60000000000000,3.50000000000000,1;5.50000000000000,2.40000000000000,3.80000000000000,1.10000000000000;5.50000000000000,2.40000000000000,3.70000000000000,1;5.80000000000000,2.70000000000000,3.90000000000000,1.20000000000000;6,2.70000000000000,5.10000000000000,1.60000000000000;5.40000000000000,3,4.50000000000000,1.50000000000000;6,3.40000000000000,4.50000000000000,1.60000000000000;6.70000000000000,3.10000000000000,4.70000000000000,1.50000000000000;6.30000000000000,2.30000000000000,4.40000000000000,1.30000000000000;5.60000000000000,3,4.10000000000000,1.30000000000000;5.50000000000000,2.50000000000000,4,1.30000000000000;5.50000000000000,2.60000000000000,4.40000000000000,1.20000000000000;6.10000000000000,3,4.60000000000000,1.40000000000000;5.80000000000000,2.60000000000000,4,1.20000000000000;5,2.30000000000000,3.30000000000000,1;5.60000000000000,2.70000000000000,4.20000000000000,1.30000000000000;5.70000000000000,3,4.20000000000000,1.20000000000000;5.70000000000000,2.90000000000000,4.20000000000000,1.30000000000000;6.20000000000000,2.90000000000000,4.30000000000000,1.30000000000000;5.10000000000000,2.50000000000000,3,1.10000000000000;5.70000000000000,2.80000000000000,4.10000000000000,1.30000000000000;6.30000000000000,3.30000000000000,6,2.50000000000000;5.80000000000000,2.70000000000000,5.10000000000000,1.90000000000000;7.10000000000000,3,5.90000000000000,2.10000000000000;6.30000000000000,2.90000000000000,5.60000000000000,1.80000000000000;6.50000000000000,3,5.80000000000000,2.20000000000000;7.60000000000000,3,6.60000000000000,2.10000000000000;4.90000000000000,2.50000000000000,4.50000000000000,1.70000000000000;7.30000000000000,2.90000000000000,6.30000000000000,1.80000000000000;6.70000000000000,2.50000000000000,5.80000000000000,1.80000000000000;7.20000000000000,3.60000000000000,6.10000000000000,2.50000000000000;6.50000000000000,3.20000000000000,5.10000000000000,2;6.40000000000000,2.70000000000000,5.30000000000000,1.90000000000000;6.80000000000000,3,5.50000000000000,2.10000000000000;5.70000000000000,2.50000000000000,5,2;5.80000000000000,2.80000000000000,5.10000000000000,2.40000000000000;6.40000000000000,3.20000000000000,5.30000000000000,2.30000000000000;6.50000000000000,3,5.50000000000000,1.80000000000000;7.70000000000000,3.80000000000000,6.70000000000000,2.20000000000000;7.70000000000000,2.60000000000000,6.90000000000000,2.30000000000000;6,2.20000000000000,5,1.50000000000000;6.90000000000000,3.20000000000000,5.70000000000000,2.30000000000000;5.60000000000000,2.80000000000000,4.90000000000000,2;7.70000000000000,2.80000000000000,6.70000000000000,2;6.30000000000000,2.70000000000000,4.90000000000000,1.80000000000000;6.70000000000000,3.30000000000000,5.70000000000000,2.10000000000000;7.20000000000000,3.20000000000000,6,1.80000000000000;6.20000000000000,2.80000000000000,4.80000000000000,1.80000000000000;6.10000000000000,3,4.90000000000000,1.80000000000000;6.40000000000000,2.80000000000000,5.60000000000000,2.10000000000000;7.20000000000000,3,5.80000000000000,1.60000000000000;7.40000000000000,2.80000000000000,6.10000000000000,1.90000000000000;7.90000000000000,3.80000000000000,6.40000000000000,2;6.40000000000000,2.80000000000000,5.60000000000000,2.20000000000000;6.30000000000000,2.80000000000000,5.10000000000000,1.50000000000000;6.10000000000000,2.60000000000000,5.60000000000000,1.40000000000000;7.70000000000000,3,6.10000000000000,2.30000000000000;6.30000000000000,3.40000000000000,5.60000000000000,2.40000000000000;6.40000000000000,3.10000000000000,5.50000000000000,1.80000000000000;6,3,4.80000000000000,1.80000000000000;6.90000000000000,3.10000000000000,5.40000000000000,2.10000000000000;6.70000000000000,3.10000000000000,5.60000000000000,2.40000000000000;6.90000000000000,3.10000000000000,5.10000000000000,2.30000000000000;5.80000000000000,2.70000000000000,5.10000000000000,1.90000000000000;6.80000000000000,3.20000000000000,5.90000000000000,2.30000000000000;6.70000000000000,3.30000000000000,5.70000000000000,2.50000000000000;6.70000000000000,3,5.20000000000000,2.30000000000000;6.30000000000000,2.50000000000000,5,1.90000000000000;6.50000000000000,3,5.20000000000000,2;6.20000000000000,3.40000000000000,5.40000000000000,2.30000000000000;5.90000000000000,3,5.10000000000000,1.80000000000000]; %% 寻找最佳分类 % Score.Criter: 轮廓系数,越接近于1越好 % Score.DBvalue:DaviesBouldin值(DB),越接近0越好 % Score.Gapvalue:GapEvaluation值(Gap),越大越好 % Score.CriterionValues:卡林斯基-哈拉巴斯指标(CH),越大越好 a = 2; b = 7; % a:最小聚类数目、b:最大聚类数目 Score = Best_type_find(index,a,b); % 寻找最佳分类 %% K-mean聚类 k = 4; % 可以根据上述结果选择合适的聚类数目 [Kind,Classsic] = kmeans(index,k); % 聚类 %% 降维可视化并绘图(第3、4个特征,可以自己改) figure; clr = hsv(k); gscatter(index(:,3),index(:,4),Kind,clr); title('聚类效果展示');

%% 中尺度涡特征参数聚类分析 clear; clc; close all; %% 1. 数据加载与预处理 try % 加载数据文件 load('North_Indian_acycdata_20231207_huizong.mat', 'eddy_huizong'); % 验证数据结构 if ~isfield(eddy_huizong, 'areas') || ~isfield(eddy_huizong, 'center_depth') error('数据字段缺失,请检查areas和center_depth字段是否存在'); end % 提取有效数据 valid_data = struct('areas', [], 'depth', []); for i = 1:length(eddy_huizong) if ~isempty(eddy_huizong(i).areas) && ~isnan(eddy_huizong(i).areas) && ... ~isempty(eddy_huizong(i).center_depth) && ~isnan(eddy_huizong(i).center_depth) valid_data.areas = [valid_data.areas; eddy_huizong(i).areas]; valid_data.depth = [valid_data.depth; eddy_huizong(i).center_depth]; end end % 检查数据有效性 if isempty(valid_data.areas) || isempty(valid_data.depth) error('没有找到有效数据'); end catch ME error('数据加载失败: %s', ME.message); end %% 2. 特征预处理 % 标准化处理 [areas_z, area_mu, area_sigma] = zscore(valid_data.areas); [depth_z, depth_mu, depth_sigma] = zscore(valid_data.depth); %% 3. 面积聚类分析 % 肘部法则 max_k_area = min(10, floor(sqrt(length(valid_data.areas)))); [optimal_k_area, sse_area] = elbow_method(areas_z, max_k_area); % 执行聚类 [idx_area, centroids_area] = kmeans(areas_z, optimal_k_area, ... 'Replicates', 15, 'EmptyAction', 'singleton'); % 可视化结果 figure('Name', '面积聚类分析', 'Position', [100 100 1200 500]) subplot(1,3,1) plot(1:max_k_area, sse_area, 'b-o', 'LineWidth', 1.5) title('面积聚类肘部法则') xlabel('聚类数K') ylabel('SSE') grid on subplot(1,3,2) gscatter(ones(size(areas_z)), areas_z, idx_area, lines(optimal_k_area), 'o', 15) title('标准化面积分布') xlim([0.8 1.2]) set(gca, 'XTick', []) subplot(1,3,3) boxplot(valid_data.areas, idx_area) title('原始面积分布') xlabel('聚类编号') ylabel('面积 (km²)') sgtitle('面积聚类结果') %% 4. 深度聚类分析 % 肘部法则 max_k_depth = min(10, floor(sqrt(length(valid_data.depth)))); [optimal_k_depth, sse_depth] = elbow_method(depth_z, max_k_depth); % 执行聚类 [idx_depth, centroids_depth] = kmeans(dept

import pandas as pd import numpy as np import skfuzzy as fuzz # 1. 读取Excel数据 file_path = "齿轮固定)大齿轮 - 副本.xls" sheet_name = "温度" # 根据metadata.sheet_name df = pd.read_excel(file_path, sheet_name=sheet_name, skiprows=1) # 跳过标题行 # 提取温度数据(排除可能的非数值列,假设所有列均为温度测点) data = df.values.T # 转置为(测点数量, 时间步长) # 2. 数据标准化(Z-score标准化) from sklearn.preprocessing import StandardScaler scaler = StandardScaler() data_scaled = scaler.fit_transform(data) # 3. 模糊C均值聚类 n_clusters = 3 # 假设聚类数为3,可根据实际调整 m = 2.0 # 模糊因子,通常为2 max_iter = 100 # 最大迭代次数 error = 1e-5 # 收敛阈值 # 初始化隶属度矩阵 cntr, u, u0, d, jm, p, fpc = fuzz.cluster.cmeans( data_scaled, n_clusters, m, error, max_iter, seed=42 ) # 4. 输出聚类结果 # 每个测点的隶属度 cluster_membership = np.argmax(u, axis=0) # 将结果保存为DataFrame result_df = pd.DataFrame({ '测点名称': df.columns, '所属聚类': cluster_membership, '隶属度最大值': np.max(u, axis=0) }) # 按聚类分组显示 print("优化分组结果:") for cluster_id in range(n_clusters): cluster_points = result_df[result_df['所属聚类'] == cluster_id]['测点名称'].tolist() print(f"聚类{cluster_id}包含测点:{cluster_points}") # 可选:输出模糊隶属度矩阵 print("\n模糊隶属度矩阵:") print(pd.DataFrame(u.T, columns=[f'聚类{i}' for i in range(n_clusters)])) # 可选:评估聚类质量(FPC值,越接近1越好) print(f"\n模糊划分系数(FPC): {fpc:.4f}")将上述代码给我转成matlab能用的

%% ======================== 数据预处理模块 ======================== clc; clear; close all; format compact; % 数据读取(请替换为实际文件路径) memberInfo = readtable('C:\Users\liansheng\Desktop\D1\附件1-会员信息表.xlsx'); % 附件1:会员信息 salesData = readtable('C:\Users\liansheng\Desktop\D1\附件2-销售流水表.xlsx'); % 附件2:销售流水 consumption = readtable('C:\Users\liansheng\Desktop\D1\附件3-会员消费明细表.xlsx'); % 附件3:消费明细 productInfo = readtable('C:\Users\liansheng\Desktop\D1\附件4-商品信息表.xlsx'); % 附件4:商品信息 % 数据清洗与变量提取 % 1. 区分会员与非会员 memberIDs = unique(memberInfo); consumption.MemberFlag = ismember(consumption, memberIDs); %% % 2. 计算消费金额(单价×数量) consumption.je = consumption.sj .* consumption.sl; % 3. 转换日期格式 consumption.etime = datetime(consumption.etime, 'Format', 'yyyy-MM-dd'); salesData.dtime = datetime(salesData.交易日期, 'Format', 'yyyy-MM-dd'); % 4. 提取分析时间窗口(以2018年1月1日为基准) analysisDate = datetime('2018-01-01', 'Format', 'yyyy-MM-dd'); consumption.消费天数 = days(analysisDate - consumption.消费日期); %% ======================== 问题1:会员消费特征分析 ======================== % 1. 会员与非会员对比 memberConsume = consumption(consumption.MemberFlag, :); nonMemberConsume = consumption(~consumption.MemberFlag, :); % 统计指标计算 stats = table(); stats.指标 = {'总消费金额','平均单次消费','消费频率','商品种类数'}; stats.会员群体 = [sum(memberConsume.消费金额) ... mean(memberConsume.消费金额) ... length(unique(memberConsume.交易日期)) ... length(unique(memberConsume.商品编码))]; stats.非会员群体 = [sum(nonMemberConsume.消费金额) ... mean(nonMemberConsume.消费金额) ... length(unique(nonMemberConsume.交易日期)) ... length(unique(nonMemberConsume.商品编码))]; % 可视化对比 figure; bar([stats.会员群体; stats.非会员群体]'); set(gca, 'XTickLabel', stats.指标); legend('会员群体', '非会员群体'); title('会员与非会员消费特征对比'); saveas(gcf, '会员非会员对比.png'); %% ======================== 问题2:购买力模型(RFMT模型) ======================== % 提取RFM指标(Recency-Frequency-Monetary-Time) memberRFM = table(); memberRFM.会员卡号 = unique(memberConsume.会员卡号); nMembers = length(memberRFM.会员卡号); % 计算RFM-T指标 for i = 1:nMembers memberID = memberRFM.会员卡号(i); memberData = memberConsume(memberConsume.会员卡号 == memberID, :); % 最近消费时间间隔(R) memberRFM.Recency(i) = min(memberData.消费天数); % 消费频率(F) memberRFM.Frequency(i) = length(unique(memberData.交易日期)); % 消费金额(M) memberRFM.Monetary(i) = sum(memberData.消费金额); % 首次消费距今时间(T) memberRFM.Time(i) = max(memberData.消费天数); end % 数据标准化 rfmtData = table2array(memberRFM(:,2:end)); rfmtNorm = zscore(rfmtData); % 层次分析法确定权重 weights = [0.3, 0.25, 0.35, 0.1]; % R:F:M:T权重 memberRFM.Score = rfmtNorm * weights'; % K-means聚类(分为4类会员) [idx, centers] = kmeans(memberRFM.Score, 4); memberRFM.Cluster = idx; % 输出购买力排名前10的会员 [~, topIdx] = sort(memberRFM.Score, 'descend'); topMembers = memberRFM(memberRFM.Score >= memberRFM.Score(topIdx(10)), :); %% ======================== 问题3:会员生命周期划分 ======================== % 基于RFMT模型聚类结果划分生命周期 lifeCycle = cell(nMembers, 1); for i = 1:nMembers cluster = memberRFM.Cluster(i); score = memberRFM.Score(i); if cluster == 1 && score > 0.8*max(memberRFM.Score) lifeCycle{i} = '成熟期'; elseif cluster == 2 || (cluster == 1 && score < 0.5*max(memberRFM.Score)) lifeCycle{i} = '成长期'; elseif memberRFM.Recency(i) > 90 && memberRFM.Frequency(i) < 3 lifeCycle{i} = '流失期'; else lifeCycle{i} = '休眠期'; end end memberRFM.LifeCycle = lifeCycle; %% ======================== 问题4:非活跃会员激活率计算 ======================== % 定义非活跃会员(最近90天无消费,且过去半年消费<3次) inactiveIdx = (memberRFM.Recency > 90) & (memberRFM.Frequency < 3); inactiveMembers = memberRFM(inactiveIdx, :); % 模拟促销活动影响(基于历史促销数据) promotionData = readtable('促销活动数据.xlsx'); % 需包含促销前后消费记录 activationRate = zeros(size(inactiveMembers,1), 1); for i = 1:size(inactiveMembers,1) memberID = inactiveMembers.会员卡号(i); prePromo = sum(promotionData.消费金额(promotionData.会员卡号 == memberID & promotionData.促销标志 == 0)); postPromo = sum(promotionData.消费金额(promotionData.会员卡号 == memberID & promotionData.促销标志 == 1)); if prePromo > 0 && postPromo/prePromo > 1.5 % 消费增长超50%视为激活 activationRate(i) = 1; end end % 激活率与促销力度的关系(假设促销力度为折扣率) promotionStrength = promotionData.折扣率(inactiveIdx); [model, ~] = fitlm(promotionStrength, activationRate); activationRelation = model.Coefficients.Estimate; %% ======================== 问题5:促销活动关联规则挖掘 ======================== % 调用FP-Growth算法挖掘商品关联规则 transactions = cell(length(unique(consumption.交易日期)), 1); uniqueDates = unique(consumption.交易日期); for i = 1:length(uniqueDates) dateData = consumption(consumption.交易日期 == uniqueDates(i), :); transactions{i} = dateData.商品编码; end % 设置支持度和置信度阈值 minSupport = 50; % 支持度计数 minConfidence = 0.6; % 运行FP-Growth算法(复用之前实现的函数) [frequentItemsets, supportCounts] = fpGrowth(transactions, minSupport); [rules, ruleMetrics] = generateRules(frequentItemsets, supportCounts, minConfidence, transactions); % 输出关联规则结果 ruleTable = table(ruleMetrics.supportX, ruleMetrics.supportY, ruleMetrics.confidence, ... 'VariableNames', {'支持度X', '支持度Y', '置信度'}); ruleTable.X = cellfun(@(x) strjoin(x, ','), rules(:,1), 'UniformOutput', false); ruleTable.Y = cellfun(@(x) strjoin(x, ','), rules(:,2), 'UniformOutput', false); ruleTable = ruleTable(:, [4,5,1,2,3]); % 保存结果 writetable(memberRFM, '会员购买力分析结果.xlsx'); writetable(ruleTable, '商品关联规则结果.xlsx'); disp('代码执行完成,结果已保存至Excel文件'); 帮我看看哪里有问题,并修正一下

function classifyFragments() % 设置碎片路径 fragmentPath = 'D:\BaiduNetdiskDownload\MATLAB R2024a\bin\project\附件5'; % 获取所有碎片文件 fileInfo = dir(fullfile(fragmentPath, '*.bmp')); fragmentFiles = {fileInfo.name}; numFragments = numel(fragmentFiles); % 初始化特征矩阵和元数据 fprintf('步骤1: 初始化数据结构...\n'); features = cell(numFragments, 1); fragmentNames = cell(numFragments, 1); heights = zeros(numFragments, 1); widths = zeros(numFragments, 1); % 参数设置 standardHeight = 100; % 标准化的图像高度 % 第一步:特征提取 fprintf('步骤2: 提取碎片特征 (%d个碎片)...\n', numFragments); for i = 1:numFragments fprintf(' 处理碎片 %d/%d: %s\n', i, numFragments, fragmentFiles{i}); % 读取图像 fileName = fragmentFiles{i}; img = imread(fullfile(fragmentPath, fileName)); % 转换为灰度图 if size(img, 3) == 3 grayImg = rgb2gray(img); else grayImg = img; end % 存储文件名(不含扩展名) [~, name, ~] = fileparts(fileName); fragmentNames{i} = name; % 存储原始尺寸 [h, w] = size(grayImg); heights(i) = h; widths(i) = w; % 1. 行平均灰度特征(核心特征) rowMean = mean(grayImg, 2); % 2. 标准化尺寸的行特征(确保所有特征向量长度一致) resizedImg = imresize(grayImg, [standardHeight, NaN]); resizedRowMean = mean(resizedImg, 2); % 3. 上下边缘特征 topEdge = mean(grayImg(1:min(5,h), :), 'all'); bottomEdge = mean(grayImg(max(1,h-4):h, :), 'all'); % 4. 文本密度特征 binaryImg = imbinarize(grayImg, 'adaptive'); textDensity = 1 - mean(binaryImg(:)); % 文本像素比例 % 5. 水平投影特征(使用标准化尺寸) resizedBinaryImg = imresize(binaryImg, [standardHeight, NaN]); horizontalProfile = sum(~resizedBinaryImg, 2); % 组合所有特征 features{i} = struct(... 'rowMean', rowMean, ... 'resizedRowMean', resizedRowMean, ... % 固定长度: standardHeight 'topEdge', topEdge, ... 'bottomEdge', bottomEdge, ... 'textDensity', textDensity, ... 'horizontalProfile', horizontalProfile); % 固定长度: standardHeight end % 第二步:碎片分组(按文本密度和边缘特征) fprintf('步骤3: 正反面分组...\n'); % 准备分组特征矩阵 densityValues = zeros(numFragments, 1); topEdgeValues = zeros(numFragments, 1); for i = 1:numFragments densityValues(i) = features{i}.textDensity; topEdgeValues(i) = features{i}.topEdge; end % 使用K-means将碎片分为两组(正反面) [groupIdx, groupCenters] = kmeans([densityValues, topEdgeValues], 2, ... 'Replicates', 5, 'MaxIter', 1000); % 确定哪个组是正面(假设文本密度较高的为正面) if groupCenters(1, 1) > groupCenters(2, 1) frontGroup = 1; backGroup = 2; else frontGroup = 2; backGroup = 1; end % 分离正反面碎片 frontIndices = find(groupIdx == frontGroup); backIndices = find(groupIdx == backGroup); fprintf(' 识别结果: 正面碎片=%d, 反面碎片=%d\n', ... numel(frontIndices), numel(backIndices)); % 第三步:行内分类(分别处理正面和反面) fprintf('步骤4: 行内分类处理...\n'); fprintf(' 处理正面碎片 (%d个)...\n', numel(frontIndices)); frontRows = classifyRows(features(frontIndices), fragmentNames(frontIndices), standardHeight); fprintf(' 处理反面碎片 (%d个)...\n', numel(backIndices)); backRows = classifyRows(features(backIndices), fragmentNames(backIndices), standardHeight); % 第四步:创建11x19表格 fprintf('步骤5: 创建结果表格...\n'); [frontTable, frontMissing] = createResultTable(frontRows, fragmentNames(frontIndices)); [backTable, backMissing] = createResultTable(backRows, fragmentNames(backIndices)); % 第五步:保存结果 fprintf('步骤6: 保存结果...\n'); saveResults(fragmentPath, frontTable, backTable, frontMissing, backMissing); fprintf('处理完成!结果已保存至目录: %s\n', fragmentPath); end function rows = classifyRows(features, names, standardHeight) % 确保所有特征向量长度一致 numFragments = numel(features); % 检查并统一特征向量长度 for i = 1:numFragments if length(features{i}.resizedRowMean) ~= standardHeight features{i}.resizedRowMean = imresize(features{i}.resizedRowMean, [standardHeight, 1]); end end % 创建特征矩阵(所有向量长度相同) featureMatrix = zeros(numFragments, standardHeight); for i = 1:numFragments featureMatrix(i, :) = features{i}.resizedRowMean'; end % 确定行数(固定为11行) numRows = 11; % 使用层次聚类 fprintf(' 计算距离矩阵...\n'); distanceMatrix = pdist(featureMatrix, 'cosine'); fprintf(' 进行层次聚类...\n'); clusterTree = linkage(distanceMatrix, 'average'); fprintf(' 形成聚类分组...\n'); rowGroups = cluster(clusterTree, 'maxclust', numRows); % 组织行结果 rows = cell(numRows, 1); for i = 1:numRows rows{i} = names(rowGroups == i); end % 按行位置排序(基于顶部边缘特征) fprintf(' 按行位置排序...\n'); rowPositions = zeros(numRows, 1); for i = 1:numRows groupIndices = find(rowGroups == i); if ~isempty(groupIndices) topEdges = zeros(numel(groupIndices), 1); for j = 1:numel(groupIndices) topEdges(j) = features{groupIndices(j)}.topEdge; end rowPositions(i) = mean(topEdges); else rowPositions(i) = i; % 默认位置 end end [~, sortIdx] = sort(rowPositions); rows = rows(sortIdx); end function [resultTable, missingFragments] = createResultTable(rows, allNames) numRows = numel(rows); resultTable = cell(numRows, 19); missingFragments = {}; % 用于跟踪已使用的碎片 usedFragments = containers.Map('KeyType', 'char', 'ValueType', 'logical'); fprintf(' 填充表格行...\n'); for rowIdx = 1:numRows rowFragments = rows{rowIdx}; numInRow = numel(rowFragments); % 提取编号并排序 numbers = zeros(numInRow, 1); for i = 1:numInRow % 提取数字部分(去除字母) numStr = regexp(rowFragments{i}, '\d+', 'match'); if ~isempty(numStr) numbers(i) = str2double(numStr{1}); else numbers(i) = 0; % 无效编号 end end % 按编号排序 [~, sortIdx] = sort(numbers); sortedFragments = rowFragments(sortIdx); % 放入表格(最多19列) numToPlace = min(numel(sortedFragments), 19); for colIdx = 1:numToPlace resultTable{rowIdx, colIdx} = sortedFragments{colIdx}; usedFragments(sortedFragments{colIdx}) = true; end % 记录多余碎片 if numel(sortedFragments) > 19 for i = 20:numel(sortedFragments) missingFragments{end+1} = sortedFragments{i}; end end end % 添加未分类的碎片 fprintf(' 检查未分类碎片...\n'); for i = 1:numel(allNames) if ~isKey(usedFragments, allNames{i}) missingFragments{end+1} = allNames{i}; end end end function saveResults(outputPath, frontTable, backTable, frontMissing, backMissing) % 保存正面表格 frontOutput = fullfile(outputPath, '正面复原表格.xlsx'); fprintf(' 保存正面表格到: %s\n', frontOutput); writecell(frontTable, frontOutput, 'Sheet', '正面结果'); % 保存反面表格 backOutput = fullfile(outputPath, '反面复原表格.xlsx'); fprintf(' 保存反面表格到: %s\n', backOutput); writecell(backTable, backOutput, 'Sheet', '反面结果'); % 保存缺失碎片 allMissing = [frontMissing(:); backMissing(:)]; if ~isempty(allMissing) missingOutput = fullfile(outputPath, '未分类碎片.xlsx'); fprintf(' 保存未分类碎片到: %s\n', missingOutput); writecell(allMissing, missingOutput, 'Sheet', '未分类碎片'); end % 显示统计信息 fprintf('\n统计信息:\n'); fprintf(' 正面表格: %d行 x %d列\n', size(frontTable, 1), size(frontTable, 2)); fprintf(' 反面表格: %d行 x %d列\n', size(backTable, 1), size(backTable, 2)); fprintf(' 未分类碎片: %d个\n', numel(allMissing)); % 可视化结果 fprintf(' 创建可视化结果...\n'); try figure('Name', '正面分类结果', 'Position', [100, 100, 1200, 600]); uitable('Data', frontTable, 'Position', [20, 20, 1160, 560], ... 'ColumnName', compose('列%d', 1:19), ... 'RowName', compose('行%d', 1:size(frontTable, 1))); figure('Name', '反面分类结果', 'Position', [200, 100, 1200, 600]); uitable('Data', backTable, 'Position', [20, 20, 1160, 560], ... 'ColumnName', compose('列%d', 1:19), ... 'RowName', compose('行%d', 1:size(backTable, 1))); catch ME fprintf(' 可视化创建失败: %s\n', ME.message); end end修改这个代码,使它能精确的分类

% SVR预测电池健康状态(SOH) - 优化版(支持分电池绘制) clc; clear; close all; % 设置训练集和测试集路径 train_folder = 'D:\HuaweiMoveData\Users\26304\Desktop\XJTU\训练集'; test_folder = 'D:\HuaweiMoveData\Users\26304\Desktop\XJTU\测试集'; % 定义特征列和目标列 feature_names = {'A', 'V0', 'PeakValue', 'PeakArea'}; target_name = 'SOH'; % 读取文件夹中的所有CSV文件 train_data = readAllCSVFiles(train_folder); test_data = readAllCSVFiles(test_folder); % 提取特征和目标变量 X_train = train_data{:, feature_names}; y_train = train_data{:, target_name}; X_test = test_data{:, feature_names}; y_test = test_data{:, target_name}; % 0-1归一化特征 (Min-Max Scaling) min_vals = min(X_train); max_vals = max(X_train); range_vals = max_vals - min_vals; % 避免除零错误 range_vals(range_vals == 0) = 1; % 应用归一化 X_train_norm = (X_train - min_vals) ./ range_vals; X_test_norm = (X_test - min_vals) ./ range_vals; % 训练SVR模型 svr_model = fitrsvm(X_train_norm, y_train, ... 'KernelFunction', 'gaussian', ... 'KernelScale', 'auto', ... 'BoxConstraint', 100, ... 'Epsilon', 0.1, ... 'Standardize', false); % 已手动标准化 % 预测和评估 y_pred = predict(svr_model, X_test_norm); % 计算整体性能指标 mse = mean((y_test - y_pred).^2); rmse = sqrt(mse); mae = mean(abs(y_test - y_pred)); r2 = 1 - sum((y_test - y_pred).^2) / sum((y_test - mean(y_test)).^2); % 显示整体结果 fprintf('整体模型性能评估:\n'); fprintf('均方误差(MSE): %.4f\n', mse); fprintf('均方根误差(RMSE): %.4f\n', rmse); fprintf('平均绝对误差(MAE): %.4f\n', mae); fprintf('决定系数(R²): %.4f\n', r2); % ================= 新增功能:按电池分开绘制结果 ================= % 获取测试集中所有唯一的电池文件名 unique_files = unique(test_data.FileName); num_batteries = length(unique_files); % 初始化电池性能存储 battery_metrics = struct(); % 创建主对比图 figure('Position', [100, 100, 1200, 800]); tiledlayout('flow', 'TileSpacing', 'compact', 'Padding', 'compact'); sgtitle('各电池SOH预测结果对比', 'FontSize', 16); % 创建主残差图 residual_fig = figure('Position', [100, 100, 1200, 800]); tiledlayout('flow', 'TileSpacing', 'compact', 'Padding', 'compact'); sgtitle('各电池预测残差分布', 'FontSize', 16); % 为每个电池创建单独的图表 for i = 1:num_batteries current_file = unique_files{i}; % 提取当前电池数据 battery_mask = strcmp(test_data.FileName, current_file); battery_data = test_data(battery_mask, :); battery_y_test = test_data{battery_mask, target_name}; battery_y_pred = y_pred(battery_mask); % 计算当前电池的循环次数(作为X轴) if ismember('Week', battery_data.Properties.VariableNames) cycles = battery_data.Week; else cycles = 1:height(battery_data); end % 计算当前电池性能指标 battery_mse = mean((battery_y_test - battery_y_pred).^2); battery_rmse = sqrt(battery_mse); battery_mae = mean(abs(battery_y_test - battery_y_pred)); battery_r2 = 1 - sum((battery_y_test - battery_y_pred).^2) / ... sum((battery_y_test - mean(battery_y_test)).^2); % 存储电池性能 battery_metrics(i).FileName = current_file; battery_metrics(i).MSE = battery_mse; battery_metrics(i).RMSE = battery_rmse; battery_metrics(i).MAE = battery_mae; battery_metrics(i).R2 = battery_r2; % ===== 绘制对比图 ===== figure(1); nexttile; plot(cycles, battery_y_test, 'bo-', 'LineWidth', 1.5, 'MarkerSize', 6, 'MarkerFaceColor', 'b'); hold on; plot(cycles, battery_y_pred, 'rs--', 'LineWidth', 1.5, 'MarkerSize', 6, 'MarkerFaceColor', 'r'); % 添加电池标识和性能指标 title_str = sprintf('电池: %s\nR²=%.3f, RMSE=%.3f', ... extractBefore(current_file, '.'), battery_r2, battery_rmse); title(title_str, 'FontSize', 10); xlabel('循环次数'); ylabel('SOH'); grid on; legend('实际值', '预测值', 'Location', 'best'); ylim([0.7, 1.05]); % 设置统一的Y轴范围 % ===== 绘制残差图 ===== figure(2); nexttile; residuals = battery_y_test - battery_y_pred; scatter(battery_y_pred, residuals, 60, 'filled', ... 'MarkerFaceColor', [0.2, 0.6, 0.8], ... 'MarkerEdgeColor', 'k'); hold on; plot([min(battery_y_pred), max(battery_y_pred)], [0, 0], ... 'k-', 'LineWidth', 1.5); % 添加电池标识 title_str = sprintf('电池: %s', extractBefore(current_file, '.')); title(title_str, 'FontSize', 10); xlabel('预测SOH'); ylabel('残差'); grid on; % 添加残差统计信息 avg_residual = mean(residuals); std_residual = std(residuals); text(0.05, 0.95, sprintf('均值: %.4f\n标准差: %.4f', avg_residual, std_residual), ... 'Units', 'normalized', 'FontSize', 8, ... 'VerticalAlignment', 'top', 'BackgroundColor', 'white'); end % 添加整体图例 figure(1); lgd = legend('实际值', '预测值', 'Orientation', 'horizontal'); lgd.Position = [0.4 0.01 0.2 0.05]; % 显示电池性能汇总 fprintf('\n各电池性能评估:\n'); fprintf('%-20s %-8s %-8s %-8s %-8s\n', '电池名称', 'MSE', 'RMSE', 'MAE', 'R²'); for i = 1:num_batteries fprintf('%-20s %.4f %.4f %.4f %.4f\n', ... battery_metrics(i).FileName, ... battery_metrics(i).MSE, ... battery_metrics(i).RMSE, ... battery_metrics(i).MAE, ... battery_metrics(i).R2); end % 辅助函数:读取文件夹中的所有CSV文件 function combinedData = readAllCSVFiles(folder) files = dir(fullfile(folder, '*.csv')); combinedData = []; for i = 1:length(files) file_path = fullfile(folder, files(i).name); data = readtable(file_path); % 添加文件名标识列 [~, filename, ~] = fileparts(files(i).name); data.FileName = repmat({filename}, height(data), 1); % 确保所有文件包含所需的列 required_columns = {'FileName', 'Week', 'DischargeCapacity', 'SOH', ... 'A', 'K', 'V0', 'RMSE', 'R2', 'PeakValue', ... 'PeakVoltage', 'PeakArea', 'RUL'}; if all(ismember(required_columns, data.Properties.VariableNames)) if isempty(combinedData) combinedData = data; else combinedData = [combinedData; data]; end else fprintf('警告: 文件 %s 缺少所需列,已跳过\n', files(i).name); disp('文件包含的列:'); disp(data.Properties.VariableNames); end end end 按电池分别归一化

% 碎片处理主程序 function [front_table, back_table] = classify_text_fragments() % 设置碎片文件夹路径 folder_path = 'D:\BaiduNetdiskDownload\MATLAB R2024a\bin\project\附件5'; % 创建可视化窗口 main_fig = figure('Name', '碎片分类可视化', 'Position', [100, 100, 1200, 800]); % 获取所有.bmp文件列表 file_list = dir(fullfile(folder_path, '*.bmp')); num_files = length(file_list); filenames = cell(num_files, 1); for i = 1:num_files filenames{i} = file_list(i).name; end % 步骤0: 显示碎片预览 subplot(3, 3, 1); show_fragments_preview(folder_path, filenames, 16); title('碎片预览 (随机16个)'); % 读取并预处理所有图像:转换为二值图像 images_bin = cell(num_files, 1); for i = 1:num_files img_path = fullfile(folder_path, filenames{i}); img = imread(img_path); % 转换为灰度图像(如果是RGB) if size(img, 3) == 3 img_gray = rgb2gray(img); else img_gray = img; end % 二值化:使用Otsu方法自适应阈值 img_bin = imbinarize(img_gray); images_bin{i} = img_bin; end % 步骤1: 区分正反面 - 基于水平投影特征聚类 % 特征: 水平投影的均值和方差(反映文本行密度和分布) features = zeros(num_files, 2); for i = 1:num_files img_bin = images_bin{i}; % 计算水平投影(行和) row_sum = sum(img_bin, 2); % 沿列求和,得到每行的像素和 % 计算特征:均值和方差 features(i, 1) = mean(row_sum); features(i, 2) = var(row_sum); end % 可视化特征分布 subplot(3, 3, 2); scatter(features(:,1), features(:,2), 30, 'filled', 'MarkerFaceColor', [0.5 0.5 0.9]); xlabel('水平投影均值'); ylabel('水平投影方差'); title('正反面特征分布'); grid on; % 使用K-means聚类分两组(正反面) rng(1); % 设置随机种子确保可重复性 [idx_side, centroids] = kmeans(features, 2, 'Replicates', 5, 'Options', statset('UseParallel', 1)); % 分配标签:假设簇1为正面,簇2为反面(基于特征均值,较高可能为文本密集面) if mean(features(idx_side == 1, 1)) > mean(features(idx_side == 2, 1)) side_labels = idx_side; % idx_side=1:正面, idx_side=2:反面 else side_labels = 3 - idx_side; % 反转标签:原1->2(反面),原2->1(正面) end % 可视化聚类结果 subplot(3, 3, 3); scatter(features(side_labels == 1, 1), features(side_labels == 1, 2), 50, 'r', 'filled'); hold on; scatter(features(side_labels == 2, 1), features(side_labels == 2, 2), 50, 'b', 'filled'); scatter(centroids(:,1), centroids(:,2), 200, 'kx', 'LineWidth', 2); legend('正面', '反面', '聚类中心'); xlabel('水平投影均值'); ylabel('水平投影方差'); title('正反面聚类结果'); grid on; hold off; % 提取正面和反面的索引 front_indices = find(side_labels == 1); back_indices = find(side_labels == 2); % 显示正反面碎片数量 fprintf('正面碎片数量: %d\n', numel(front_indices)); fprintf('反面碎片数量: %d\n', numel(back_indices)); % 可视化正反面示例 subplot(3, 3, 4); show_side_examples(folder_path, filenames, front_indices, '正面示例'); subplot(3, 3, 5); show_side_examples(folder_path, filenames, back_indices, '反面示例'); % 步骤2: 对每个面进行按行初分类和列排序 % 定义行数(11行)和列数(19列) num_rows = 11; num_cols = 19; % 处理正面碎片 [front_sorted, front_row_positions] = process_side(images_bin, front_indices, filenames, num_rows, num_cols, 6, '正面行分类'); front_table = reshape(front_sorted, num_rows, num_cols); % 转换为11x19表格 % 处理反面碎片 [back_sorted, back_row_positions] = process_side(images_bin, back_indices, filenames, num_rows, num_cols, 7, '反面行分类'); back_table = reshape(back_sorted, num_rows, num_cols); % 转换为11x19表格 % 显示结果表格预览 subplot(3, 3, 8); show_table_preview(front_table, '正面表格预览'); subplot(3, 3, 9); show_table_preview(back_table, '反面表格预览'); % 保存结果到MAT文件 save('fragment_tables.mat', 'front_table', 'back_table'); % 创建完整表格可视化 figure('Name', '正面碎片表格', 'Position', [100, 100, 1200, 600]); uitable('Data', front_table, 'Position', [20, 20, 1160, 560], ... 'ColumnName', compose('列%d', 1:num_cols), ... 'RowName', compose('行%d', 1:num_rows)); figure('Name', '反面碎片表格', 'Position', [200, 100, 1200, 600]); uitable('Data', back_table, 'Position', [20, 20, 1160, 560], ... 'ColumnName', compose('列%d', 1:num_cols), ... 'RowName', compose('行%d', 1:num_rows)); % 保存结果到Excel writecell(front_table, fullfile(folder_path, '正面碎片表.xlsx')); writecell(back_table, fullfile(folder_path, '反面碎片表.xlsx')); end % 辅助函数:处理单个面(正面或反面) function [sorted_filenames, row_positions] = process_side(images_bin, indices, filenames, num_rows, num_cols, plot_position, plot_title) num_fragments = length(indices); side_images = images_bin(indices); side_filenames = filenames(indices); % 提取每个碎片的行位置特征(平均文本行y坐标) row_positions = zeros(num_fragments, 1); row_peaks = cell(num_fragments, 1); for i = 1:num_fragments img_bin = side_images{i}; % 计算水平投影 row_sum = sum(img_bin, 2); % 平滑投影以减少噪声 row_sum_smooth = smooth(row_sum, 5); % 移动平均平滑 % 找峰值(文本行位置) [pks, locs] = findpeaks(double(row_sum_smooth), 'MinPeakProminence', max(row_sum_smooth)/5); row_peaks{i} = locs; if isempty(locs) % 无峰值时使用图像中心 row_positions(i) = size(img_bin, 1) / 2; else % 取峰值的平均作为行位置 row_positions(i) = mean(locs); end end % 可视化行位置分布 figure(gcf); subplot(3, 3, plot_position); histogram(row_positions, 30); xlabel('行位置'); ylabel('碎片数量'); title(plot_title); grid on; % 聚类行位置到11行 [idx_row, centroids] = kmeans(row_positions, num_rows, 'Replicates', 10, 'Options', statset('UseParallel', 1)); % 可视化行聚类结果 figure; set(gcf, 'Position', [200, 200, 1000, 600], 'Name', [plot_title, ' 聚类结果']); % 绘制聚类结果 subplot(1, 2, 1); gscatter(1:num_fragments, row_positions, idx_row); hold on; for i = 1:num_rows yline(centroids(i), '--', sprintf('行%d中心', i), 'LineWidth', 1.5); end xlabel('碎片索引'); ylabel('行位置'); title('行位置聚类'); grid on; hold off; % 绘制聚类中心 subplot(1, 2, 2); plot(centroids, 1:num_rows, 'o-', 'MarkerSize', 8, 'LineWidth', 2); set(gca, 'YDir', 'reverse'); xlabel('行位置中心'); ylabel('行号'); title('行中心位置'); grid on; ylim([0.5, num_rows+0.5]); % 按行分组,并对每行内的碎片按列排序 sorted_filenames = cell(num_rows * num_cols, 1); % 预分配 col_positions = cell(num_rows, 1); for row = 1:num_rows % 获取当前行的碎片索引 row_indices = indices(idx_row == row); row_filenames = filenames(row_indices); row_images = images_bin(row_indices); % 提取每个碎片的列位置特征(文本左边缘x坐标) left_edges = zeros(length(row_indices), 1); for j = 1:length(row_indices) img_bin = row_images{j}; % 计算垂直投影 col_sum = sum(img_bin, 1); col_sum_smooth = smooth(col_sum, 5); % 平滑 % 找左边缘:第一个超过平均值的点 threshold = mean(col_sum_smooth); edge_idx = find(col_sum_smooth > threshold, 1, 'first'); if isempty(edge_idx) left_edges(j) = 1; % 默认左边缘 else left_edges(j) = edge_idx; end end % 存储列位置 col_positions{row} = left_edges; % 按左边缘排序(从左到右) [~, sort_order] = sort(left_edges); sorted_row_filenames = row_filenames(sort_order); % 存储到输出(移除.bmp扩展名) start_idx = (row - 1) * num_cols + 1; end_idx = min(row * num_cols, start_idx + length(sorted_row_filenames) - 1); for j = 1:min(length(sorted_row_filenames), num_cols) [~, name_only, ~] = fileparts(sorted_row_filenames{j}); sorted_filenames{start_idx + j - 1} = name_only; end end % 可视化列位置分布 figure('Name', [plot_title, ' 列位置分布'], 'Position', [300, 300, 1000, 600]); for row = 1:num_rows subplot(3, 4, row); if ~isempty(col_positions{row}) histogram(col_positions{row}, 20); title(sprintf('行 %d (碎片: %d)', row, numel(col_positions{row}))); xlabel('列位置'); ylabel('数量'); grid on; end end end % 显示碎片预览 function show_fragments_preview(folder_path, filenames, num_samples) % 随机选择样本 rng(42); % 固定随机种子以便重现 sample_idx = randperm(numel(filenames), min(num_samples, numel(filenames))); % 创建预览图像 preview_size = 300; preview_img = zeros(preview_size, preview_size, 3, 'uint8'); grid_size = ceil(sqrt(num_samples)); cell_size = floor(preview_size / grid_size); for i = 1:num_samples idx = sample_idx(i); img_path = fullfile(folder_path, filenames{idx}); img = imread(img_path); % 调整大小 if size(img, 3) == 1 img = repmat(img, [1, 1, 3]); end img_resized = imresize(img, [cell_size, cell_size]); % 计算位置 row = floor((i-1)/grid_size); col = mod(i-1, grid_size); y_range = row*cell_size + 1 : (row+1)*cell_size; x_range = col*cell_size + 1 : (col+1)*cell_size; % 确保范围不超出 y_range = y_range(1:min(end, size(preview_img, 1))); x_range = x_range(1:min(end, size(preview_img, 2))); % 放置图像 preview_img(y_range, x_range, :) = img_resized(1:numel(y_range), 1:numel(x_range), :); end imshow(preview_img); end % 显示面示例 function show_side_examples(folder_path, filenames, indices, title_str) % 随机选择4个示例 num_samples = min(4, numel(indices)); sample_idx = indices(randperm(numel(indices), num_samples)); % 创建预览图像 preview_size = 200; preview_img = zeros(preview_size, preview_size, 3, 'uint8'); grid_size = ceil(sqrt(num_samples)); cell_size = floor(preview_size / grid_size); for i = 1:num_samples idx = sample_idx(i); img_path = fullfile(folder_path, filenames{idx}); img = imread(img_path); % 调整大小 if size(img, 3) == 1 img = repmat(img, [1, 1, 3]); end img_resized = imresize(img, [cell_size, cell_size]); % 计算位置 row = floor((i-1)/grid_size); col = mod(i-1, grid_size); y_range = row*cell_size + 1 : (row+1)*cell_size; x_range = col*cell_size + 1 : (col+1)*cell_size; % 确保范围不超出 y_range = y_range(1:min(end, size(preview_img, 1))); x_range = x_range(1:min(end, size(preview_img, 2))); % 放置图像 preview_img(y_range, x_range, :) = img_resized(1:numel(y_range), 1:numel(x_range), :); end imshow(preview_img); title(title_str); end % 显示表格预览 function show_table_preview(table_data, title_str) % 创建小表格预览 preview_size = min(5, size(table_data, 1)); preview_data = table_data(1:preview_size, 1:min(5, size(table_data, 2))); % 显示表格文本 text(0.5, 0.5, sprintf('表格预览:\n%s', evalc('disp(preview_data)')), ... 'HorizontalAlignment', 'center', 'VerticalAlignment', 'middle', ... 'FontSize', 9); axis off; title(title_str); end明确告诉你,没有不能拼的碎片,应该都能拼成,初分类可以不按11x19的格式,但我要求较为准确的分类,你这个运行出来分的不太对

rm(list = ls()) setwd("C:/Rdate") getwd() library(ggplot2) library(dplyr) library(tidyr) library(tibble) library(pheatmap) # 读取数据(确保无额外处理) data <- read.csv("ko00250.csv", header = TRUE, row.names = 1, sep = ",") # ------------------------------- # 步骤1:按行Z-score标准化(保留NA) # ------------------------------- data_normalized <- t(scale(t(data))) # 允许保留NA # 检查缺失值和标准化结果 print(paste("缺失值数量:", sum(is.na(data_normalized)))) print(paste("手动标准化数据范围:", round(range(data_normalized, na.rm = TRUE), 2))) # ------------------------------- # 步骤2:获取pheatmap行列顺序 # ------------------------------- p <- pheatmap( data, scale = "row", cluster_cols = FALSE, cluster_rows = FALSE, silent = TRUE ) p_row_order <- rownames(p$matrix) p_col_order <- colnames(p$matrix) # ------------------------------- # 步骤3:转换数据并严格匹配顺序 # ------------------------------- df <- data_normalized %>% as.data.frame() %>% rownames_to_column("Row") %>% pivot_longer( cols = -Row, names_to = "Col", values_to = "Value", values_drop_na = FALSE ) %>% mutate( Row = factor(Row, levels = p_row_order), Col = factor(Col, levels = p_col_order) ) # ------------------------------- # 步骤4:绘制热图 # ------------------------------- ggplot(df, aes(x = Col, y = Row, fill = Value)) + geom_point( shape = 21, size = 9, color = "#c0c7c2", stroke = 0.8, na.rm = FALSE # 允许绘制NA ) + scale_fill_gradient2( low = "#619f4d", mid = "#fdfffe", high = "#d76b50", midpoint = 0, limits = c(-2, 2), breaks = c(-2, -1, 0, 1, 2), na.value = "grey80", oob = scales::squish ) + theme_minimal() + theme( axis.text.x = element_text(angle = 45, hjust = 1, size = 8), axis.text.y = element_text(size = 8), panel.grid = element_blank(), aspect.ratio = nrow(data)/ncol(data), legend.position = "right", legend.key.height = unit(1.5, "cm") ) + labs(x = NULL, y = NULL, fill = "Z-score") # 保存 ggsave("heatmap_normalized.png", width = 10, hei

最新推荐

recommend-type

PLC控制变频器:三菱与汇川PLC通过485通讯板实现变频器正反转及调速控制

内容概要:本文介绍了如何利用三菱和汇川PLC通过485通讯板实现变频器的正转、反转及调速控制。主要内容涵盖硬件配置、软件编程、具体控制逻辑及上机测试。文中详细描述了各个步骤的操作方法和注意事项,包括关键寄存器的设置及其含义。程序中有详细的中文注释,便于理解和维护。最终通过上机测试验证系统的稳定性和可靠性。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是熟悉PLC编程和变频器控制的专业人士。 使用场景及目标:适用于需要对电机进行精确控制的工业应用场景,如生产线、机械设备等。目标是提高控制系统灵活性和效率,确保系统稳定可靠。 其他说明:本文不仅提供理论指导,还附带实际操作经验,有助于读者更好地掌握相关技术和应用。
recommend-type

Web前端开发:CSS与HTML设计模式深入解析

《Pro CSS and HTML Design Patterns》是一本专注于Web前端设计模式的书籍,特别针对CSS(层叠样式表)和HTML(超文本标记语言)的高级应用进行了深入探讨。这本书籍属于Pro系列,旨在为专业Web开发人员提供实用的设计模式和实践指南,帮助他们构建高效、美观且可维护的网站和应用程序。 在介绍这本书的知识点之前,我们首先需要了解CSS和HTML的基础知识,以及它们在Web开发中的重要性。 HTML是用于创建网页和Web应用程序的标准标记语言。它允许开发者通过一系列的标签来定义网页的结构和内容,如段落、标题、链接、图片等。HTML5作为最新版本,不仅增强了网页的表现力,还引入了更多新的特性,例如视频和音频的内置支持、绘图API、离线存储等。 CSS是用于描述HTML文档的表现(即布局、颜色、字体等样式)的样式表语言。它能够让开发者将内容的表现从结构中分离出来,使得网页设计更加模块化和易于维护。随着Web技术的发展,CSS也经历了多个版本的更新,引入了如Flexbox、Grid布局、过渡、动画以及Sass和Less等预处理器技术。 现在让我们来详细探讨《Pro CSS and HTML Design Patterns》中可能包含的知识点: 1. CSS基础和选择器: 书中可能会涵盖CSS基本概念,如盒模型、边距、填充、边框、背景和定位等。同时还会介绍CSS选择器的高级用法,例如属性选择器、伪类选择器、伪元素选择器以及选择器的组合使用。 2. CSS布局技术: 布局是网页设计中的核心部分。本书可能会详细讲解各种CSS布局技术,包括传统的浮动(Floats)布局、定位(Positioning)布局,以及最新的布局模式如Flexbox和CSS Grid。此外,也会介绍响应式设计的媒体查询、视口(Viewport)单位等。 3. 高级CSS技巧: 这些技巧可能包括动画和过渡效果,以及如何优化性能和兼容性。例如,CSS3动画、关键帧动画、转换(Transforms)、滤镜(Filters)和混合模式(Blend Modes)。 4. HTML5特性: 书中可能会深入探讨HTML5的新标签和语义化元素,如`<article>`、`<section>`、`<nav>`等,以及如何使用它们来构建更加标准化和语义化的页面结构。还会涉及到Web表单的新特性,比如表单验证、新的输入类型等。 5. 可访问性(Accessibility): Web可访问性越来越受到重视。本书可能会介绍如何通过HTML和CSS来提升网站的无障碍访问性,比如使用ARIA标签(Accessible Rich Internet Applications)来增强屏幕阅读器的使用体验。 6. 前端性能优化: 性能优化是任何Web项目成功的关键。本书可能会涵盖如何通过优化CSS和HTML来提升网站的加载速度和运行效率。内容可能包括代码压缩、合并、避免重绘和回流、使用Web字体的最佳实践等。 7. JavaScript与CSS/HTML的交互: 在现代Web开发中,JavaScript与CSS及HTML的交云并用是不可或缺的。书中可能会讲解如何通过JavaScript动态地修改样式、操作DOM元素以及使用事件监听和响应用户交互。 8. Web框架和预处理器: 这本书可能会提到流行的Web开发框架和预处理器,比如Bootstrap、Foundation、Sass和Less等,它们是如何简化和加速开发流程的。 9. 测试和维护: 书中也可能包含关于如何测试网页以及如何持续优化和维护CSS和HTML代码的章节。例如,使用断言测试、自动化测试、性能分析工具等。 最后,鉴于文件名称列表中的“压缩包子文件”的表述,这可能是对“压缩包”文件的一种误译或误用,此处“压缩包”应该指的是包含该书籍PDF文件的压缩文件格式,如ZIP或RAR。而“Pro CSS and HTML Design Patterns.pdf”指的就是该书籍的PDF格式电子版文件。 以上所述,构成了《Pro CSS and HTML Design Patterns》一书可能包含的核心知识点。通过学习这些内容,Web前端开发者可以掌握更为高效和优雅的设计模式,从而在日常工作中更高效地解决实际问题。
recommend-type

Zotero 7数据同步:Attanger插件安装&设置,打造文献管理利器

/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2018/L/j/ipKA8TRPyt4ptaG1DGww/t-m-01.png) # 1. Zotero 7数据同步简介 在数字时代,管理研究数据变得日益重要,而Zot
recommend-type

卷积神经网络的基础理论200字

<think>我们正在回答用户关于卷积神经网络(CNN)基础理论的询问。根据提供的引用资料,我们可以概述CNN的基本结构和工作原理。引用[1]提到CNN是一种前馈神经网络,信息从输入单向流动到输出。引用[2]指出CNN在图像处理等领域应用广泛,通过层次结构和参数调整实现模式识别。引用[3]说明CNN包含卷积层,使用卷积核提取局部特征,减少参数量,提高效率。引用[4]则提到了训练过程,包括前向传播、误差计算和反向传播(梯度下降)。因此,我们将从以下几个方面概述CNN:1.CNN的基本结构(卷积层、池化层、全连接层)2.卷积操作的工作原理(局部感受野、权重共享)3.训练过程(前向传播、损失函数、反
recommend-type

轻便实用的Java库类查询工具介绍

标题 "java2库类查询" 和描述表明,所提及的工具是一个专门用于查询Java库类的应用程序。此软件旨在帮助开发者快速地查找和引用Java的标准开发工具包(SDK)中包含的所有应用程序编程接口(API)类。通过这样的工具,开发者可以节省大量在官方文档或搜索引擎上寻找类定义和使用方法的时间。它被描述为轻巧且方便,这表明其占用的系统资源相对较少,同时提供直观的用户界面,使得查询过程简洁高效。 从描述中可以得出几个关键知识点: 1. Java SDK:Java的软件开发工具包(SDK)是Java平台的一部分,提供了一套用于开发Java应用软件的软件包和库。这些软件包通常被称为API,为开发者提供了编程界面,使他们能够使用Java语言编写各种类型的应用程序。 2. 库类查询:这个功能对于开发者来说非常关键,因为它提供了一个快速查找特定库类及其相关方法、属性和使用示例的途径。良好的库类查询工具可以帮助开发者提高工作效率,减少因查找文档而中断编程思路的时间。 3. 轻巧性:软件的轻巧性通常意味着它对计算机资源的要求较低。这样的特性对于资源受限的系统尤为重要,比如老旧的计算机、嵌入式设备或是当开发者希望最小化其开发环境占用空间时。 4. 方便性:软件的方便性通常关联于其用户界面设计,一个直观、易用的界面可以让用户快速上手,并减少在使用过程中遇到的障碍。 5. 包含所有API:一个优秀的Java库类查询软件应当能够覆盖Java所有标准API,这包括Java.lang、Java.util、Java.io等核心包,以及Java SE平台的所有其他标准扩展包。 从标签 "java 库 查询 类" 可知,这个软件紧密关联于Java编程语言的核心功能——库类的管理和查询。这些标签可以关联到以下知识点: - Java:一种广泛用于企业级应用、移动应用(如Android应用)、网站后端、大型系统和许多其他平台的编程语言。 - 库:在Java中,库是一组预打包的类和接口,它们可以被应用程序重复使用。Java提供了庞大的标准库,以支持各种常见的任务和功能。 - 查询:查询指的是利用软件工具搜索、定位和检索信息的过程。对于Java库类查询工具来说,这意味着可以通过类名、方法签名或其他标识符来查找特定的API条目。 最后,压缩包文件列表包含了两个文件:“java.dit”和“Java.exe”。其中“Java.exe”很可能是程序的可执行文件,而“java.dit”可能是一个数据文件,用于存储Java类的索引或数据。由于文件名后缀通常与文件类型相关联,但“dit”并不是一个常见的文件扩展名。这可能是一个特定于软件的自定义格式,或是一个打字错误。 总结来说,"java2库类查询" 是一个针对Java开发者的实用工具,它提供了一个轻量级、易用的平台来查询和定位Java标准库中的所有类和API。此工具对优化开发流程,减少查找Java类文档的时间大有裨益,尤其适合需要频繁查阅Java API的开发者使用。
recommend-type

【Zotero 7终极指南】:新手必备!Attanger插件全攻略与数据同步神技

# 1. Zotero 7与Attanger插件的介绍 在当今的学术研究和知识管理领域,高效的文献管理工具至关重要。Zotero 7作为一个流行的参考文献管理软件,因其强大的功能和用户友好的界面而受到专业人士的青睐。而Attanger插件则为Zotero 7带来了更多定制化和高级功能,极大地增强
recommend-type

MATLAB整段注释快捷键

<think>首先,用户的问题是:“MATLAB整段注释快捷键”,意思是“MATLAB整段注释快捷键”。我需要用中文回答。 根据规则: - 回答必须用中文。 - 回答完问题后,必须在末尾输出“§§相关问题§§”,然后提出3-5个相关问题。 - “§§相关问题§§”必须完整输出在第一行,禁止换行分散。 - 相关问题必须基于用户的问题和我的回答。 现在,回忆MATLAB的快捷键:在MATLAB中,整段注释通常使用快捷键Ctrl + R来注释选中的代码行,使用Ctrl + T来取消注释。用户问的是“整段注释”,所以我应该确认快捷键。 在MATLAB中: - 注释选中的行:Ctrl + R -
recommend-type

Eclipse Jad反编译插件:提升.class文件查看便捷性

反编译插件for Eclipse是一个专门设计用于在Eclipse集成开发环境中进行Java反编译的工具。通过此类插件,开发者可以在不直接访问源代码的情况下查看Java编译后的.class文件的源代码,这在开发、维护和学习使用Java技术的过程中具有重要的作用。 首先,我们需要了解Eclipse是一个跨平台的开源集成开发环境,主要用来开发Java应用程序,但也支持其他诸如C、C++、PHP等多种语言的开发。Eclipse通过安装不同的插件来扩展其功能。这些插件可以由社区开发或者官方提供,而jadclipse就是这样一个社区开发的插件,它利用jad.exe这个第三方命令行工具来实现反编译功能。 jad.exe是一个反编译Java字节码的命令行工具,它可以将Java编译后的.class文件还原成一个接近原始Java源代码的格式。这个工具非常受欢迎,原因在于其反编译速度快,并且能够生成相对清晰的Java代码。由于它是一个独立的命令行工具,直接使用命令行可以提供较强的灵活性,但是对于一些不熟悉命令行操作的用户来说,集成到Eclipse开发环境中将会极大提高开发效率。 使用jadclipse插件可以很方便地在Eclipse中打开任何.class文件,并且将反编译的结果显示在编辑器中。用户可以在查看反编译的源代码的同时,进行阅读、调试和学习。这样不仅可以帮助开发者快速理解第三方库的工作机制,还能在遇到.class文件丢失源代码时进行紧急修复工作。 对于Eclipse用户来说,安装jadclipse插件相当简单。一般步骤包括: 1. 下载并解压jadclipse插件的压缩包。 2. 在Eclipse中打开“Help”菜单,选择“Install New Software”。 3. 点击“Add”按钮,输入插件更新地址(通常是jadclipse的更新站点URL)。 4. 选择相应的插件(通常名为“JadClipse”),然后进行安装。 5. 安装完成后重启Eclipse,插件开始工作。 一旦插件安装好之后,用户只需在Eclipse中双击.class文件,或者右键点击文件并选择“Open With Jadclipse”,就能看到对应的Java源代码。如果出现反编译不准确或失败的情况,用户还可以直接在Eclipse中配置jad.exe的路径,或者调整jadclipse的高级设置来优化反编译效果。 需要指出的是,使用反编译工具虽然方便,但要注意反编译行为可能涉及到版权问题。在大多数国家和地区,反编译软件代码属于合法行为,但仅限于学习、研究、安全测试或兼容性开发等目的。如果用户意图通过反编译获取商业机密或进行非法复制,则可能违反相关法律法规。 总的来说,反编译插件for Eclipse是一个强大的工具,它极大地简化了Java反编译流程,提高了开发效率,使得开发者在没有源代码的情况下也能有效地维护和学习Java程序。但开发者在使用此类工具时应遵守法律与道德规范,避免不当使用。
recommend-type

【进阶Python绘图】:掌握matplotlib坐标轴刻度间隔的高级技巧,让你的图表脱颖而出

# 摘要 本文系统地探讨了matplotlib库中坐标轴刻度间隔的定制与优化技术。首先概述了matplotlib坐标轴刻度间隔的基本概念及其在图表中的重要性,接
recommend-type

降帧是什么意思

<think>首先,用户的问题是:“我想了解降帧的含义 请问降帧是什么意思”。我需要用中文回答,并确保回答结构清晰,帮助用户逐步解决问题。 关键点是“降帧”。在视频处理、动画或游戏上下文中,“降帧”通常指的是帧率下降或丢帧(frame drop)。结合系统提供的引用,我可以看到相关概念。 回顾提供的引用: - 引用[1]:讨论了帧率和丢帧分析,提到应用丢帧导致帧率下降,造成卡顿。例如,在60Hz刷新率下,每帧需要在16.7ms内完成,否则可能丢帧。 - 引用[2]:提到掉帧(Frame Drop),与CPU和GPU相关。CPU或GPU处理不及时会导致帧无法按时渲染。 - 引用[3]: