- 通过神经元修剪在模型编辑方面取得的进展为从大型语言模型中去除不良概念提供了希望。
- 然而,目前尚不清楚在编辑后模型是否具有重新学习修剪概念的能力
- ——>论文通过在重新训练期间跟踪修剪神经元中的概念显著性和相似性来评估模型中的概念重新学习
- 研究结果表明,模型可以通过将高级概念重新定位到较早的层,并将修剪的概念重新分配给具有相似语义的激活神经元,从而在修剪后迅速恢复性能。
- 虽然神经元修剪提供了对模型概念的解释能力,但文中的结果强调了永久去除概念以提高模型安全性的挑战
论文略读:Onthe Expressivity Role of LayerNorm in Transformers’ Attention
2024-07-10 18:28:03 32 阅读