VLM Unlearning 有关论文阅读总结与梳理

VLM Unlearning 有关论文阅读总结与梳理

文章目录

目录

前言

一、什么是 Unlearning

二、AUVIC

三、Neuron Pruning

四、 Neuron Path Editing

五、 MLLM Eraser


前言

本文整理了当前多模态大模型(VLM)中常见的 Unlearning 技术路线,主要包括:

  • AUVIC
  • Neuron Pruning
  • Neuron Path Editing
  • MLLM Eraser

这些方法的核心目标都是:

让模型“遗忘”指定知识,同时尽量不影响其它知识。

一、什么是 Unlearning

在多模态大模型(Vision-Language Model / VLA)中,我们经常需要:

  • 删除隐私数据
  • 移除不安全知识
  • 删除特定人物或敏感概念
  • 符合法规(GDPR)

但重新训练模型成本非常高,因此提出:Machine Unlearning

即:让模型有选择地忘记某些知识,而不影响其他能力。

在多模态模型中,这件事更困难,因为:

  • 知识分布在视觉 + 文本两个模态
  • 多模态特征高度耦合
  • 单纯 finetune 容易破坏模型能力

因此出现了多种 Unlearning 方法。

二、AUVIC

原文链接:[2511.11299] AUVIC: Adversarial Unlearning of Visual Concepts for Multi-modal Large Language Models

1.核心思想

AUVIC 的目标是:

强迫模型在最困难情况下学会只抑制目标,而不影响相邻概念

具体来说:在 target identity 上答错或 回答模糊;在非目标样本上保持正常回答

2.方法结构

AUVIC 采用 min-max 对抗优化

\min_{\theta}\ \max_{\phi}\ \mathbb{E}_{x\sim\mathcal{D}}\Big[ \mathcal{L}_{f} + \lambda \mathcal{L}_{p} + \beta \mathcal{L}_{c} \Big]

θ (Vision Tower)

通过 LoRA 微调 来最小化 loss:

目标:降低 target identity 的识别能力


ϕ (Generator)

对输入图像添加扰动

目标:max loss,即生成最困难的样本。


Loss

1️⃣ Forget Loss
\mathcal{L}_{f} = \log p_{\theta}(y^{*}\mid x_{t})
增加 target identity 的预测 loss:logits ↑ → loss ↑
2️⃣ Prediction Consistency Loss
\mathcal{L}_{p} = \left\| \mathrm{logits}_{\mathrm{before}}(x_{t}) - \mathrm{logits}_{\mathrm{after}}(x_{t}) \right\|_{2}^{2}
保证非目标样本的回答准确度
3️⃣ Representation Consistency
\mathcal{L}_{c} = \mathrm{KL}\Big(p_{\theta}(\cdot\mid G(x;\phi ))\ \Big\|\ p_{\theta}(\cdot\mid x)\Big)
保证同一个人的视觉表示在扰动前后要一致

3.方法优势

  • 不破坏相邻概念
  • 对抗训练鲁棒
  • 可用于人脸隐私删除

三、Neuron Pruning

原文链接:[2502.15910] Modality-Aware Neuron Pruning for Unlearning in Multimodal Large Language Models

1.核心思想

不同模态输入会激活 不同的神经元子集

因此可以 剪枝负责 Forget 数据的神经元

2.方法步骤

Step1:检测模态偏置神经元

计算不同模态下的神经元指标:

激活强度差

1️⃣

I_{\mathrm{abs}}(D,n)
差异越大 → 越可能是模态专属神经元
激活频率差

2️⃣ 

I_{\mathrm{freq}}(D,n)
差异越大 → 模态专属
激活方差

3️⃣ 

I_{\mathrm{var}}(D,n)
方差越大 → 信息承载能力越强
RMS 指标

4️⃣ 

I_{\mathrm{rms}}(D,n)
用于惩罚无脑常亮的神经元

Step2:计算 Forget Score

S_{n}=\frac{I(D_{f},n)}{I(D_{r},n)+\epsilon}

其中:

\mathcal{I}(\mathcal{D}, n) := \sum_{k \in \mathcal{K}} I_k(\mathcal{D}, n)
\mathcal{K} = \{I_{\text{abs}}, I_{\text{freq}}, I_{\text{var}}, I_{\text{rms}}\}
D_r

 = Retain dataset

D_f

 = Forget dataset

通过计算选取最大的神经元作为selected neurons

Step3:部署 Mask

selected neurons 上:

mask = 0

后续推理中永久生效。


3.方法优势

  • 无需重新训练
  • 计算效率高
  • 可解释性强

   

四、 Neuron Path Editing

原文链接:[2511.06793] Cross-Modal Unlearning via Influential Neuron Path Editing in Multimodal Large Language Models

1.核心思想

模型中的知识通常沿着 神经元路径(neuron path)传播

因此 找到关键路径并进行编辑


2.方法步骤

Step1:路径定位

通过 Integrated Gradient 找到关键神经元:

\text{IGI}(\mathbf{w}) = \sum_{j=1}^N \tilde{w}_{i_j}^n \sum_{k=1}^m \sum_{l=1}^N \frac{\partial F_T\left(\frac{k}{m}\alpha_{i_1}^1, \dots, \frac{k}{m}\alpha_{i_N}^N\right)}{\partial w_{i_l}^l}
IGI(w) 表示各层的选取神经元对文本输出的影响。
\text{IFI}(\mathbf{z}) = \sum_{n=1}^N \tilde{z}_{i_n}^n \sum_{k=1}^m \sum_{l=1}^N \left(\frac{\partial \mathbf{G}\left(\frac{k}{m}\beta_{i_1}^1, \dots, \frac{k}{m}\beta_{i_N}^N\right)}{\partial z_{i_l}^l}\right)^2
IFI(z) 表示各层的选取神经元对视觉输出的影响。

Q:为什么要累积梯度?

因为:

神经元对任务的影响可能是非线性的

在某一点梯度可能为0或负值,但在此之前的梯度都很大,都能展现出强相关性

因此需要从

\frac{1}{m}\alpha

到 

\alpha

逐步累积梯度才能真实反映神经元影响。


Step2:构建关键路径

逐层寻找:

可以满足 

max(IGI / IFI)

 的神经元加入现有路径。


Step3:RMisU Path Editing

编辑关键路径对应参数

Loss 设计:

\mathcal{L} = \mathcal{L}_{\text{retain}} + \mathcal{L}^{f}_{\text{RMisU}} + \gamma \mathcal{L}^{r}_{\text{RMisU}}
以这个Loss为损失,只解冻(更新)“关键路径所在的目标层中,与该路径神经元通道直接相关的极少量参数,基本就是一个参数矩阵的一行,和另一个参数矩阵的一列

其中:

1️⃣  

\mathcal{L}_{\text{retain}} = \mathbb{E}_{(x^r, y^r) \in D^r} \left[ -\sum_{i=1}^{|y^r|} \log P_{M_{\theta^*}}(y_i^r \mid x^r, y_{<i}^r) \right]
在“保留数据”上,新模型的输出行为仍然是一个正常的语言模型

2️⃣  

\mathcal{L}^{f}_{\text{RMisU}} = \mathbb{E}_{x^f \in D^f} \left\| \mathbf{h}^{(l)}_{M_{\theta^*}}(x^f) - \mathbf{v}^f \right\|_2^2
在中间层形成的隐藏层表示,必须长得像一个随机噪声向量

3️⃣  

\mathcal{L}^{r}_{\text{RMisU}} = \mathbb{E}_{x^r \in D^r} \left\| \mathbf{h}^{(l)}_{M_{\theta^*}}(x^r) - \mathbf{h}^{(l)}_{M_\theta}(x^r) \right\|_2^2
在保留集上:新模型在中间层的表示,必须和原模型几乎一模一样

Forget目标

中间隐藏层表示:像随机噪声

Retain目标

在保留数据上:新模型 ≈ 原模型


3.方法优势

  • 精确编辑知识
  • 参数修改极少
  • 保留模型能力

五、 MLLM Eraser

原文链接:[2510.04217] MLLMEraser: Achieving Test-Time Unlearning in Multimodal Large Language Models through Activation Steering

1.核心思想

通过 向隐藏层添加方向向量

将模型行为从 knowledge recall 转变为 knowledge erasure

2.方法步骤

Step1:构造两类输入

Recall 行为(模型还能被尝试着唤醒对问题的正确回答)

使用:

  • jailbreak prompt
  • adversarial image

构造能唤起 Recall 行为的输入,得到: 

h^{(i)}_{\text{recall}} = h(I'_i, Q'_i)

Refusal 行为(不管怎么样模型都无法正常回答问题)

使用:

  • clean image
  • blocked prompt

构造能唤起 Refusal 行为的输入,得到:

h^{(j)}_{\text{refusal}} = h(I_j, Q_j)

Step2:计算 Erasure Direction

d_{\text{erase}} = \mathbb{E}\!\left[h_{\text{refusal}}\right] - \mathbb{E}\!\left[h_{\text{recall}}\right]

表示:

从 recall 到 refusal 的方向。

Step3:学习线性门控函数

f(\mathbf{h}) = \mathbf{W} \mathbf{P} \mathbf{h}
\mathbf{W}^* := \arg\min_{\mathbf{W}} \left( \|\mathbf{W} \mathbf{P} \mathbf{H}_f - \mathbf{D}\| + \gamma \|\mathbf{W} \mathbf{P}\| \right)

其中:

P \in \mathbb{R}^{d \times d}, \quad W \in \mathbb{R}^{1 \times d}, \quad D \in \mathbb{R}^{1 \times N_f}
  • P:投影矩阵
  • W:映射矩阵

P 的作用

保留与遗忘任务相关的子空间

W 的作用

判断是否触发 erasure

Step4:输入感知 Steering

最终修改隐藏层:

\tilde{h}^{(\ell)} = h^{(\ell)} + \lambda W P h^{(\ell)}

如果 

h \approx h_{\text{recall}}
则添加 d_erase

如果:

h \approx h_{\text{refusal}}
则保持不变

方法优势

  • 不需要重新训练
  • 推理阶段可控
  • 支持输入感知

Read more

【Java Web学习 | 第15篇】jQuery(万字长文警告)

【Java Web学习 | 第15篇】jQuery(万字长文警告)

🌈个人主页: Hygge_Code🔥热门专栏:从0开始学习Java | Linux学习| 计算机网络💫个人格言: “既然选择了远方,便不顾风雨兼程” 文章目录 * 从零开始学 jQuery * jQuery 核心知识🥝 * 一、jQuery 简介:为什么选择它? * 1. 核心用途 * 2. 核心优势 * 3. 下载与引入 * 二、jQuery 语法:基础与选择器 * 1. 常用选择器 * 2. ready 方法:确保文档加载完成 * 三、DOM 元素操作:内容、属性、样式 * 1. 操作元素内容 * 2. 操作元素属性 * 3. 操作元素样式 * (1)操作宽度与高度 * (2)

中文文本分类新选择|AI万能分类器集成WebUI开箱即用

中文文本分类新选择|AI万能分类器集成WebUI开箱即用 在自然语言处理(NLP)的实际应用中,文本分类是构建智能客服、舆情监控、工单系统、内容推荐等场景的核心能力。传统方法往往依赖大量标注数据进行模型训练,成本高、周期长。而随着预训练语言模型的发展,零样本学习(Zero-Shot Learning) 正在改变这一局面。 本文将介绍一款基于 StructBERT 零样本分类模型 的 AI 万能分类器镜像——无需训练、支持自定义标签、集成可视化 WebUI,真正实现“开箱即用”的中文文本智能打标解决方案。 🌟 为什么需要“零样本”文本分类? 在实际业务中,我们常常面临这样的问题: * 新的分类需求不断出现(如新增投诉类型) * 标注数据稀缺或成本过高 * 快速验证分类逻辑是否可行 * 希望快速搭建原型系统进行演示 传统的监督学习流程:收集数据 → 清洗标注 → 训练模型 → 部署上线,动辄数周甚至数月。而零样本分类技术让我们可以跳过训练阶段,在推理时直接定义类别标签,由模型根据语义理解自动判断归属。 💡 零样本

DeerFlow基础教程:DeerFlow控制台UI与Web UI双模式使用详解

DeerFlow基础教程:DeerFlow控制台UI与Web UI双模式使用详解 1. DeerFlow是什么:你的个人深度研究助理 你有没有过这样的经历?想快速了解一个新领域,比如“量子计算在金融建模中的最新应用”,但搜了一堆资料,发现信息零散、真假难辨、专业门槛高,最后只能放弃?或者需要为一次重要汇报准备一份结构清晰、数据扎实、有深度分析的行业报告,却卡在资料收集和逻辑梳理上,耗时又费力? DeerFlow就是为解决这类问题而生的。它不是另一个聊天机器人,而是一个能真正帮你“做研究”的AI助手——你的个人深度研究助理。 它不满足于简单回答问题,而是主动调用搜索引擎获取最新信息、运行Python代码验证假设、调用专业工具分析数据、整合多源内容生成结构化报告,甚至能把研究成果变成一段自然流畅的播客音频。整个过程就像你请了一支由研究员、数据分析师、文案编辑和播客制作人组成的虚拟团队,在后台协同工作。 更关键的是,它把这一切复杂能力,封装成了两种你随时可以打开、上手就用的界面:一个简洁高效的命令行控制台(Console UI),适合喜欢直接、快速、可复现操作的用户;还有一个功能

【前端实战】Axios 错误处理的设计与进阶封装,实现网络层面的数据与状态解耦

【前端实战】Axios 错误处理的设计与进阶封装,实现网络层面的数据与状态解耦

目录 【前端实战】Axios 错误处理的设计与进阶封装,实现网络层面的数据与状态解耦 一、为什么网络错误处理一定要下沉到 Axios 层 二、Axios 拦截器 interceptors 1、拦截器的基础应用 2、错误分级和策略映射的设计 3、错误对象标准化 三、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“创作之星”特邀作者、火山KOL、支付宝合作作者,全平台博客昵称watermelo37。         一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。 --------------------------------------------------------------------- 温柔地对待温柔的人,包容的三观就是最大的温柔。 --------------------------------------------------------------------- 【前