Benchmark论文解读:Evaluating the Ripple Effects of Knowledge Editing in Language Models

  论文发表于自然语言处理顶刊TACL-2024(原文链接)。目前模型编辑方法的评估主要集中在测试单个事实是否被成功注入,以及模型对其它事实的预测是否没有改变。作者认为这样的评估模式有限,因为注入一个事实会产生涟漪效应,模型应该同步更新一系列的额外事实。比如当注入:z是e的母亲时。模型应该同步更新:z的孩子是e的兄弟姐妹。为了解决这个问题:

  1、提出一套新的评价标准,考虑模型编辑对涟漪效应的影响。

  2、基于知识图构建了数据集RIPPLEDITS,用于捕捉各种类型的涟漪效应。

  3、在RIPPLEDITS上评估了之前的编辑方法,发现简单的in-context编辑baseline获得了最好的分数,为模型编辑提供了一个有前途的研究方向。

  阅读本文请同时参考原始论文图表。

1  方法#

1.1  评价指标#

  如图1所示,当将埃菲尔铁塔所在城市修改为伦敦时,模型不但要回答出埃菲尔铁塔所在城市是伦敦,并且无关事实对的回答不能变动,还要回答出:1、所在国家是英国而不是法国。2、对应的协调世界时是UTC+0。也就是一系列受到这个编辑影响的事实都要作相应的修改,称为这些事实为涟漪效应 (Ripple Effects)。

  对于一个给定模型,假设它学习到的知识可以表示为知识图谱的形式K={(ei,ri,oi)}Ni=1 K = { ( e i , r i , o i ) } i = 1 N 。则对于该模型的一个知识编辑δ:(e,r,o)(e,r,o) δ : ( e , r , o ) → ( e , r , o ∗ ) ,定义其涟漪效应为受到δ δ 影响的事实集合R(δ) R ( δ ) ,并称集合大小|R(δ)| | R ( δ ) | 为这个编辑的严重程度。

  由于涟漪效应跨度可能十分大,本文主要关注与编辑事实的实体e,o e , o 距离两跳以内的事实。为了评估模型的涟漪效应,提出了六个具体的评估标准。以修改事实(Prince, sibling, Nicholas Carminowe)为例,即修改后的模型关于问题:The sibling of Prince are …,有答案Nicholas Carminowe。六个评估标准如图2所示:

  A、逻辑泛化 (Logical generalization, LG):测试模型是否回忆事实(x,r,z) ( x , r ′ , z ) ,其中x{e,o,o} x ∈ { e , o , o ∗ } r r ′ 是与r r 语义相关的关系。A中举了一个与原始提问对称的例子,即测试事实(o,r,e)

  B、组合I (Compositionality I, CI):通过链接(e,r,o) ( e , r , o ∗ ) (o,r,z) ( o ∗ , r ′ , z ) ,测试模型是否回忆事实(e,r′′,z) ( e , r ″ , z ) 。其中模型在编辑之前就已知事实(o,r,z) ( o ∗ , r ′ , z ) ,关系r′′ r ″ r,r r , r ′ 的组合,从而通过关系组合跳过o o ∗

  C、组合II (Compositionality II, CII):通过链接(e,r,e) ( e ′ , r ′ , e ) (e,r,o) ( e , r , o ∗ ) ,测试模型是否回忆事实(e,r′′,o) ( e ′ , r ″ , o ∗ ) 。其中模型在编辑之前就已知事实(e,r,e) ( e ′ , r ′ , e ) ,关系r′′ r ″ r,r r ′ , r 的组合,从而通过关系组合跳过e e

  D、主体别名 (Subject Aliasing, SA):测试模型是否回忆事实(e,r,o),其中e e ′ e e 的别名。

  E、遗忘度 (Forgetfulness, FN):对于1-N的关系r,测试模型是否回忆(e,r,o) ( e , r , o ′ ) 。其中(e,r,o) ( e , r , o ′ ) 是模型编辑前已知的事实。

  F、关系特异性 (Relation Specificity, RS):测试模型是否回忆与编辑事实无关的事实。

1.2  数据集构建#

  本文使用知识图构建基于以上评价指标的数据集RIPPLEDITS:

  1、事实三元组的收集:从WIKIDATA(由事实三元组构成的关系知识库)中收集待编辑的事实三元组,依据三个原则:最近(Recent)、随机(Random)、流行(Popular)。

  2、事实三元组的修改:对于Recent类型的三元组,模型训练时没有涉及,因此可以直接使用。对于Random和Popular类型的三元组,将相应的三元组事实修改为反事实。

  3、关于以上得到的每个待编辑事实三元组,收集六个评估指标对应的测试三元组。

  4、将所有事实三元组用模板转换为自然语言。

  统计数据如表1所示和图4所示。

2  实验#

  图5:in-context编辑 (ICE) 的例子。

  表3/4/5:各编辑方法在各模型上以及不同数据类别上的编辑结果。可以看出In-context编辑的综合效果最好。

  表6:SOTA方法编辑GPT-2在4个评价指标上的平均结果。可以看出这些方法在这些涟漪效应上效果很差。

  图6:ROME在不同参数的模型上编辑的准确率变化图。可以看出,模型参数量越大,ROME准确率越高。

  图7:ROME、MEMIT、MEND分别使用三类数据编辑GPT-2在6个评价指标上的平均结果。

3  总结#

  1、本文在MQUAKE和浙大综述之后,2023/7/24发布arxiv。

  2、本文所讨论的涟漪效应和浙大综述论文(Yao 等, 2023)中提到的可移植性 (Portability) 类似,但本文进一步细化为6个类别,综述中仅主要考虑了本文的2效应。

 

原创作者: qizhou 转载于: https://www.cnblogs.com/qizhou/p/18916588
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值