Transfer Learning for Non-Intrusive Load Monitoring

摘要 -

非侵入式负载监控(NILM)是一种仅从家庭中记录的主电源恢复源设备的技术。 NILM无法识别,因此是一个挑战问题,因为仅给出主电源的设备的推断功率值不可能是唯一的。为了缓解不可识别的问题,已经提出了将领域知识结合到NILM中的各种方法,并且在实验上有效地显示了这些方法。最近,在这些方法中,深度神经网络显示出最佳性能。可以说,最近提出的序列到点(seq2point)学习对于NILM是有希望的。但是,结果仅在同一数据域上执行。不清楚该方法是否可以推广或转移到不同的域,例如,与训练数据相比,测试数据来自不同的国家。我们在本文中讨论了这个问题,并提出了两种转移学习方案,即设备转移学习(ATL)和跨域转移学习(CTL)。对于ATL,我们的结果显示了“复杂”所学到的潜在特征。

绪论:

我们的假设是,使用CNN提取的那些特征在设备之间以及跨数据域是不变的。为了研究这一假设,我们提出了器具转移学习(ATL)和跨域转移学习(CTL)。 对于ATL,目标是在一个设备学习的功能能够转移到其他设备时评估算法。 对于CTL,目标是评估算法是否可以从一个数据域转移到另一个数据域。

Deep neural networks:[19], [32], [30], [10], [2], [3], [6], [26], [12], [9],[14], [21], [16]

denoising auto-encoder [19], [6],

convolutional neural networks(CNN) [32], [30], [10], [26],

recurrent neural networks (RNN)[19]

方法:

大多数深度学习方法都是在同一个领域进行评估的。 除了[26]的工作之外,在普遍性方面做的工作较少,其中作者考虑了跨域转移学习。 但是,他们的工作并不研究微调和设备转移学习。 在本文中,我们研究了在更广泛的方面应用于NILM的深度神经网络的可转移性(普遍性)。

1.Appliance transfer learning 

我们考虑设备转移学习(ATL)。我们的问题是,如果一个设备学到的签名可以转移到其他设备。我们观察到差异设备学到的特征具有相似的模式。值得注意的是,主要功能包括ON-OFF变化,功率水平和活动持续时间。

 例如,图2展示了使用水壶,微波炉,冰箱,洗碗机和洗衣机数据训练的模型所产生的特征。在此图中,所有五个模型都使用相同的输入窗口。我们的观察是,虽然他们正在学习类似的签名,但不同设备学到的功能往往是不同的。

一些器具,例如洗衣机和洗碗机,提取比其他器具更多的信息,例如水壶。水壶的大部分功能通道都没有激活;例如,在图2中,只有两个通道主动具有重要的签名。与水壶相比,洗衣机了解到更多信息;更多频道正在积极展示有趣的签名。

 由于所有设备都从数据中学习类似的签名,因此可以在所有设备之间共享相同的功能通道。如果这是可行的,那么这种方法可能会大大有助于降低培训成本和家庭中安装的传感器数量。然后,我们的方法是仅使用单个设备来训练模型。经过训练的CNN层将直接应用于其他设备,并且仅针对不同设备训练完全连接的层。我们选择使用使用洗衣机培训的CNN层。

2.Cross domain transfer learnin 

我们对seq2point学习的跨域转移学习(CTL)感兴趣。在本文中,不同的域意味着数据是从同一个国家或不同国家的不同地区收集的。该模型可以在一个域上进行训练,并在不同的域上进行测试。我们的目标是评估模型并研究如何将模型从一个域转移到另一个域。我们的目的是通过使用尽可能少的来自测试域的信息来传输模型我们将采用微调进行转学习。

针对大型数据集训练seq2point模型。然后,本文将研究两种转移学习方法。第一种方法是将训练的模型直接应用于不同域中的测试数据;第二种方法是通过使用来自测试数据的小子集来微调预训练的模型。值得注意的是,我们不会为这两种方法调整CNN层,因为我们的实验表明调整CNN层不会改善性能。因此,在我们的转移学习方法中仅调整完全连接的层。

3.Settings for training neural networks 

可以通过实验选择最佳长度,例如[30]中的工作研究了序列到序列模型的最佳窗口长度

在我们的实验中,通过将窗口向前滑动一个数据点来生成样本窗口,因此所有可能的样本窗口都用于训练。 电源的窗口用作神经网络的输入,而电器的相应窗口的中点用作目标。

结论:

然后我们考虑CTL,这意味着CNN层在REFIT上训练,然后完全连接的密集层分别在从REDD和UK-DALE取得的小子集上训练。 结果显示在表V和VI的第三列中。 有趣的是,在REDD上,seq2point的性能有所提高, 但英国DALE减少了。 应该指出的是,UK-DALE和REFIT的领域是相似的。 相比之下,REDD的领域与REFIT不同。 这可能表明对类似域的微调可能导致过度拟合。 微调可以帮助提高不同域的seq2point学习的性能

我们得出结论,当域不同时,微调确实有助于提高seq2point学习的性能。 相反,当域相似时,我们可能不需要微调。