
从模型重编程(ModelReprogramming),到参数高效微调(PEFT),再到当下大模型时代的PromptTuning,PromptInstruction和In-contextLearning,研究者和从业人员不断地探索一个核心问题:在尽量不改动模型参数的前提下,如何最大化地复用预训练模型的能力?
过去几年,这类方法在不同社区中以各自独立的形式快速发展——有的来自对抗鲁棒性与迁移学习,有的服务于下游任务适配,有的则成为大模型对齐与应用的基础工具。然而,这些看似分散的技术路线,背后是否存在一个更统一、更本质的理论视角?
近期,来自墨尔本大学可信赖机器学习与推理(TMLR)研究小组和IBMAI研究所的研究者系统性地提出了「神经网络可重编程性(NeuralNetworkReprogrammability)」这一统一主题,在最近的一篇survey中,将模型重编程,PromptTuning、PromptInstruction和In-contextLearning纳入同一分析框架,从操纵位置、操纵类型、操纵算子和输出对齐四个维度进行了系统梳理与对比。同时,该团队也在AAAI2026上带来同名Tutorial,帮助研究者与工程实践者全面理解这一正在重塑模型使用范式的关键能力。

Tutorial标题:NeuralNetworkReprogrammability:AUnifiedFrameworkforParameter-EfficientFoundationModelAdaptation
论文标题:NeuralNetworkReprogrammability:AUnifiedThemeonModelReprogramming,PromptTuning,andPromptInstruction
GitHub:https://zyecs.github.io/awesome-reprogrammability/tutorial-AAAI26/
1.模型训练范式的转变
在本文中,我们认为随着预训练模型(pre-trainedmodel)规模的增长,其适配下游任务(downstreamtasks)的范式已经发生了根本性转变:从传统的基于模型参数调整的适配(图1a)转变为了基于模型可重编程性的适配(图1b)。

传统适配技术(parameter-centricadaptation,PCA)通过重新训练预训练模型,修改模型内部参数,使其适用于新的下游任务。例如,将ImageNet预训练的图像分类器应用于猫狗分类任务时,需要至少改变分类头,甚至重新训练其他层的参数,即我们通常所说的fine-tuning,本质上改变了模型学习到的内部表征(representation),并需要为每个下游任务维护一份新的参数拷贝。
新兴适配技术(基于模型可重编程性的适配,reprogrammability-centricadaptation,RCA)则采用了一种不同的理念:保持模型参数冻结,转而策略性地修改任务呈现的方式,通过精心设计下游任务的输入变换(包括模型输入(input)、提示(prompt)或上下文信息(context)),以及模型输出对齐方式(output)来使其兼容下游任务,使用极少量可训练参数(甚至完全不引入新参数),在不触及模型权重的情况下「重编程」预训练模型的行为。
核心转变体现在理念上的转换:从「修改模型以适应任务」转向「修改任务以适应模型」,从而使我们能以最小的计算开销在不同任务中重复使用预训练模型,同时保持其原有能力。同一个冻结的模型仅通过改变与其「对话」的方式,就能处理多种不同的任务。
2.可重编程性范式的效率优势
具体实验数据表明(图2),相较PCA,RCA在参数效率上有明显优势。将ImageNet预训练的视觉Transformer(ViT-B/32)适配到遥感图像分类任务(EuroSAT)。柱状图显示不同fine-tune策略的参数需求:从左到右分别对应fullyfine-tune到逐步减少可训练层数的各种配置,训练参数量随之下降。但即便是最轻量的PCA方案仍需要大量参数。
形成对比的是,红色虚线显示RCA需要的训练参数始终比任何PCA配置少2-3个数量级。这些参数用于输入变换和输出对齐,而不是修改预训练模型的内部权重。

这表明,在可以实现comparableperformance前提下,RCA的参数效率更高,使得在资源受限环境中适配大模型成为可能,并支持同时适配多个任务而不会出现灾难性遗忘。在预训练模型规模与能力不断提升、获取方式日趋不透明(如商业模型仅提供API接口)的背景下,RCA的优势愈发突出。
3.可重编程性范式的「多种称谓」
然而,我们发现相似甚至相同的模型适配方法在不同研究社区却有着截然不同的命名:NLP社区常称之为「prompttuning」,而ML文献中研究者更倾向于使用「modelreprogramming」指代这类方法。经验上,这种术语混乱也经常引发「哪种方法更优」、「为何不比较其他方法」等争论。
核心问题在于:prompttuning,modelreprogramming,甚至in-contextlearning真的代表不同的模型适配方法吗?答案是否定的。尽管表现形式各异,这些方法实质上都利用了神经网络的同一固有属性--neuralnetworkreprogrammability(神经网络可重编程性,图3)。基于这一认识,我们提出统一框架来连接三个独立发展的研究领域,并系统性地描述和归类这些适配方法。

关键点1.可重编程性的普适性。
它具备架构无关性和模态无关性,跨越三个核心维度:适配方法,预训练模型架构(单模态类型、多模态模型、专门架构),以及数据类型(图像、文本、音频、图结构等)--无论具体实现细节如何,围绕模型接口的信息操作(informationmanipulationatmodel’sinterfaces)这一共同的底层原理,我们都能将任意预训练模型适配到任意下游任务。
4.可重编程性范式的首次提出(ICLR2019)
那么什么是reprogrammability呢?下面这张图片展示了从神经网络对于对抗样本的脆弱性(sensitivitytoadversarialexamples)向可重编程性(reprogrammability)的演进。图片来自文章《Adversarialreprogrammingofneuralnetworks》由G.F.Elsayed,I.Goodfellow,andJ.Sohl-Dickstein.发表于ICLR2019.

左侧(传统对抗样本adversarialexample):展示了经典对抗攻击,在熊猫图像上添加不可察觉的噪声,就能使ImageNet分类器将其错分为长臂猿,置信度高达99.3%,尽管图像在人眼看来没有变化。
右侧(对抗重编程adversarialreprogramming):展示了如何将这种脆弱性转化为建设性用途。我们不仅欺骗模型,同时将其「重编程」以执行完全不同的任务:
(a)展示了一个黑白格图像的计数任务,我们可以人为将不同的动物类别映射到方块数量类别(1-10个方块)
(b)展示了「对抗程序」(adversarialprogram)--精心设计的噪声,充当指导模型行为的指令(可以理解为prompt)
(c)将(a)和(b)结合后,仅在objectrecognition任务上预训练的ImageNet分类器被「重编程」以执行方格计数任务,可以输出「4个方格」的预测结果(从源域的「虎鲨」类映射得到)
关键点2.巧妙利用神经网络的敏感性。
由对抗样本发现的神经网络敏感性(理论背景包括决策边界的不连续性等),正是可重编程性的基础。我们不再将这种敏感性仅视为安全缺陷,而是建设性地利用它,在不重新训练的情况下将预训练模型重定向到新的任务。精心设计的program/prompt可以将神经网络感知的弱点转化为高效的适配机制。

5.可重编程性范式的数学表达
如上,我们给出neuralnetworkreprogrammability统一框架的定义,涵盖了文章中讨论的各类模型适配方法。定义如下:
给定源域(sourcedomain)上预训练的模型
定义的目标任务:
。神经网络可重编程性使这个固定模型(参数不再改变)能够通过两个可配置的变换在完全不同的目标域(targetdomain)实现由该域输入/输出空间
映射到源域输出空间
,该模型从源域输入空间
输入操作(inputmanipulation)
该变换将目标任务的输入转换为预训练模型可处理的格式,这可能是通过添加可学习的prompt、拼接demonstrationexamples或应用adversarialperturbation到目标样本上。
输出对齐(outputalignment)
该变换将预训练模型的源域预测映射到目标任务的输出格式。这可能涉及到labelmapping,structuredparsing或linearprojection等。
将这两个变换与预训练模型结合,我们得到重编程后的预训练模型

。这个看似简单的复合函数可以描述上述模型适配技术的本质,这些看似不同的方法实际上只是同一基本原理的不同实例。
6.可重编程性范式的具体案例
以视觉-语言模型(Vision-LanguageModel)为例,说明三种可重编程方法在实现上的差异(如图4所示)。
(4a)modelreprogramming(MR):主要在模型原始输入层操作。可学习的扰动直接添加到输入图像上。模型通过图像和文本编码器处理这些修改后的输入,需要输出对齐将模型的原始预测映射到新的目标任务。这种方法适用于可访问模型的输入和输出,但对内部模型组件控制有限的情况。
(4b)prompttuning(PT):主要在中间表示层操作。可学习的tokens或嵌入(embedding)被插入到模型的内部层(包括图像编码器和文本编码器)。这些「软提示」可以在嵌入层(embeddinglayer)或隐藏层(hiddenlayers)进行前置或插值,在保持核心参数冻结的同时允许对模型内部处理进行更直接的控制。
(4c)promptinstruction(PI):通过上下文演示(contextualdemonstration)操作。该方法不使用可学习参数,而是提供多个示例图像和明确的文本指令来引导模型行为。模型从提供的演示中「上下文」学习任务,无需任何参数更新。该方法的有效性主要在LLMs和largevision-languagemodel/multi-modalLLMs上可观察到。
操作位置:输入空间(MR)→嵌入/隐藏空间(PT)→输入空间(PI)
参数需求:可学习扰动(MR)→可学习tokens(PT)→无新参数(PI)
访问要求:输入访问(MR)→白盒访问(PT)→API级访问(PI)
本质上,三种方法都实现了相同目标--将冻结模型重新用于新任务--通过计算图中的不同路径实现。

Neuralnetworkreprogrammability如何在不同模态和任务中具体实现呢?
(a)modelreprogrammingfor图像分类任务(图5a):
输入操纵:目标图像经过调整大小并与可学习扰动模式λ结合。这将目标任务输入转换为预训练分类器可处理的格式。
预训练模型:冻结的图像分类器(如ResNet,ViT)处理操纵后的输入。
输出对齐:将分类器的原始类别预测转换到目标任务的标签空间(不同类别,可能不同数量的类别)。即实现了LabelMapping步骤,不需要额外的训练参数。
训练:仅通过反向传播优化扰动参数λ,模型权重保持冻结。
(b)prompttuningfor文本生成任务(图5b):
输入操纵:可学习的prompttokensλ通过拼接操作前置到目标文本输入。
预训练模型:冻结的languagegenerator(如GPT)处理提示增强的输入。
输出对齐:因为模型已经在目标文本空间输出,无需额外转换。
训练:仅优化提示参数λ,保持生成器完全冻结。

关键点3.数学框架下的一致性。
尽管操纵不同模态(视觉vs语言)、任务类型(分类vs生成)并使用不同的输入操纵策略(加性扰动vs连接提示),两种方法都遵循完全相同的数学框架。
7.基于可重编程性范式,归纳现有方法
基于这个特性,我们进一步提出了一个分类法(taxonomy),将过往的研究工作组织为跨四个维度的连贯结构,并展示了neuralnetworkreprogrammability这一框架的泛用性。
操纵位置:定义输入操纵发生在预训练模型的哪个接口,包括原始输入空间(inputspace),嵌入空间(embeddingspace),以及隐藏空间(hiddenspace)
操纵类型:定义输入操纵的类型,分为可优化(learnable)和固定(fixed)
操纵算子:定义输入操纵如何被应用到目标数据(targetinput)上,包括加性(additive)、拼接(concatenative)、参数化(parametric)算子
输出对齐:定义是否模型输出需要进行额外操作以对齐目标任务(targetoutput),包括恒等映射(identitymapping)、结构变换(structuralalignment)、统计变换(statisticalalignment)、线性变换(linearalignment)
对应地,MR,PT和PI对应的研究方法可以被系统归类,如表格2所示。

8.如何用可重编程性范式来理解In-contextlearning和Chain-of-ThoughtReasoning

特别地,LLM的上下文学习in-contextlearning(ICL)在该框架下可以描述为
固定输入操纵:无训练参数,依赖人为设计的demonstrationexamples
原始输入空间操纵:demonstrationexample直接与模型的textquery拼接
拼接操纵算子:demonstrationexample通过拼接操作
隐式输出对齐:无需额外显式映射,预训练模型直接生成目标输出或依靠模型自身能力对输出进行基于规则的格式、结构调整(见下图示例,ChatGPT可以直接对模型输出的naturallanguage进行格式限制,e.g.,bulletlist,LaTeX)

因此,模型通过这些示例在「上下文」中学习目标任务的模式,且无需任何参数更新。Demonstrationexamples本质上是一种输入操纵,通过策略性构造输入,从而重编程模型行为。

对应地,思维链推理(Chain-of-ThoughtReasoning)可被认为是一种通过融入结构化、与输入样本特定相关的(sample-specific)「推理形式」的输入操纵。
输入操纵:具备增强的上下文信息,不仅包含输入-输出对,还包含明确的中间推理步骤。例如,解决数学问题时,CoT会包含「问题->第一步计算->第二步计算->…->最终步骤」的完整推理过程。另外,每个目标输入query都会触发模型生成与该具体query匹配的推理链。比如解决「23×47=?」时,模型会生成针对这两个具体数字的逐步计算过程,而不仅是通用的乘法公式。
输出对齐:由于模型输出完整的推理序列(「首先计算23×40=920,然后计算23×7=161,最后920+161=1081」),因此需要结构化、基于规则的解析机制(structuralalignment)从这个推理文本中提取最终数值答案。
9.资源分享:AwesomeNeuralNetworkReprogrammability资源库
为了方便社区追踪这一飞速发展的领域的最新进展,我们维护了一个Awesome风格的资源库,收录并持续更新NeuralNetworkReprogrammability领域的最新论文和代码实现。希望这个资源库能让你少走弯路!
GitHub:https://zyecs.github.io/awesome-reprogrammability/
如果你正在做相关方向,欢迎在GitHub上star支持,或者来仓库一起补全与更新!