這是用戶在 2025-7-1 20:48 為 https://36kr.com/p/3351182914071431 保存的雙語快照頁面,由 沉浸式翻譯 提供雙語支持。了解如何保存?

LLM 進入“拖拽時代”,只靠 Prompt,幾秒定製一個大模型,效率飆升 12000 倍

新智元·2025 年 06 月 25 日 08:49
有三點優勢

最近,來自 NUS、UT Austin 等機構的研究人員創新性地提出了一種「拖拽式大語言模型」(DnD),它可以基於提示詞快速生成模型參數,無需微調就能適應任務。 不僅效率最高提升 12000 倍,而且具備出色的零樣本泛化能力。

現在的大模型基本都具備零樣本泛化能力,但要在真實場景中做特定的適配,還是得花好幾個小時來對模型進行微調。

即便是像 LoRA 這樣的參數高效方法,也只能緩解而不能消除每個任務所需的微調成本。

剛剛,包括尤洋教授在內的來自新加坡國立大學、德克薩斯大學奧斯丁分校等機構的研究人員,提出了一種全新的「拖拽式大語言模型」——Drag-and-Drop LLMs!

論文位址:https://arxiv.org/abs/2506.16406

DnD 是一種基於提示詞的參數生成器,能夠對 LLM 進行無需訓練的自適應微調。

通過一個輕量級文本編碼器與一個級聯超卷積解碼器的組合,DnD 能在數秒內,僅根據無標籤的任務提示詞 ,生成針對該任務的 LoRA 權重矩陣。

顯然,對於那些需要快速實現模型專業化的場景,DnD 可以提供一種相較於傳統微調方法更強大、靈活且高效的替代方案。

總結來說,DnD 的核心優勢如下:

極致效率: 其計算開銷比傳統的全量微調低 12,000 倍。

卓越性能: 在零樣本學習的常識推理、數學、編碼及多模態基準測試中,其性能比最強大的、需要訓練的 LoRA 模型還要高出 30%。

強大泛化: 僅需無標籤的提示詞,即可在不同領域間展現出強大的泛化能力。

DnD 實現方法

通過觀察,研究人員發現,LoRA 適配器無非是其訓練數據的一個函數:梯度下降會將基礎權重「拖拽」至一個特定任務的最優狀態。

如果能夠直接學習從提示到權重的映射,那麼就可以完全繞過梯度下降過程。

DnD 通過兩個核心步驟獲得「拖拽」能力:準備訓練數據(左上)與訓練參數生成器(右上)。

在準備數據時,將模型參數(權重)與特定數據集的條件(提示詞)進行顯式配對。

在訓練時,DnD 模型將條件作為輸入來生成參數,並使用原始的 LoRA 參數作為監督信號進行學習。

基於這些洞見,團隊提出了「拖拽式大語言模型」,它無需微調即可生成任務專屬的權重。

團隊首先在多個不同數據集上分別訓練並保存相應的 LoRA 適配器。

為了賦予模型「拖拽」的能力,團隊將這些數據集的提示詞與收集到的 LoRA 權重進行隨機配對,構成 DnD 模型的訓練數據——即「提示詞-參數」對。

參數生成器是一個由級聯卷積塊構成的解碼器。

參數生成器的模組細節如下:每個超卷積塊包含三個超卷積模組,用於在不同維度上提取並融合特徵資訊。

訓練時,團隊採用一個現成的文本編碼器提取提示詞的嵌入向量,並將其輸入生成器。

生成器會預測出模型權重,團隊利用其與真實 LoRA 權重之間的均方誤差(MSE)損失來對其進行優化。

在推理階段,團隊只需將來自全新數據集(訓練中未見過)的提示詞輸入 DnD,僅需一次前向傳播,即可獲得為該任務量身定製的參數。

效果評估

零樣本學習效果

在新的(測試)數據集上的泛化能力。

在所有未曾見過的數據集上,DnD 在準確率上都顯著超越了那些用於訓練的 LoRA 模型。

DnD 能為數學、代碼和多模態問答等更複雜的任務生成參數。

在這些任務上依然展現出強大的零樣本學習能力。

DnD 在多種任務上超越了基座 LLM,展現出顯著的「拖拽」增強效果。

DnD 能夠很好地擴展至更大的 7B 基座模型,並在更複雜的 LiveCodeBench 基準測試中保持強勁性能。

通過利用已微調的 LoRA 作為訓練數據,DnD 成功地在輸入提示詞與模型參數之間建立了聯繫。

團隊向 DnD 輸入其訓練階段從未見過的數據集提示詞,讓它為這些新任務直接生成參數,以此來檢驗其零樣本學習能力。

DnD 在權重空間中生成的參數與原始參數分佈接近,並且在性能上表現良好。

實驗結果表明,在零樣本測試集上,團隊的方法相較於訓練所用的 LoRA 模型的平均性能,取得了驚人的提升,並且能夠很好地泛化到多種真實世界任務和不同尺寸的 LLM。

對比其他微調方法

為了進一步展示 DnD 的強大能力,團隊將其與全量樣本微調(full-shot tuning)、少樣本學習(few-shot)以及上下文學習(in-context learning)進行了對比。

令人驚訝的是,DnD 的性能超越了 LoRA 全量微調的效果,同時速度快了 2500 倍。

雖然經過更多輪次的反覆運算,全量微調的性能會超過 DnD,但其代價是高達 12000 倍的推理延遲。

此外,在樣本數少於 256 個時,DnD 的性能穩定地優於少樣本學習和上下文學習。

尤其值得注意的是,少樣本學習和上下文學習都需要依賴帶標籤的答案,而 DnD 僅僅需要無標籤的提示詞。

DnD 能夠達到與全量樣本相當甚至更優的性能,同時速度提高了 2500-12000 倍

作者介紹

梁志遠

Zhiyuan Liang 目前在新加坡國立大學高性能計算人工智慧實驗室實習,師從尤洋教授。 同時,也得到了 Kai Wang 博士和 Wangbo Zhao 的指導。

此前,他在中國科學技術大學獲得人工智慧學士學位。 並曾在北卡羅來納大學教堂山分校 Huaxiu Yao 教授的指導下進行實習,以及在中國科學技術大學數據科學實驗室跟著導師 Xiang Wang 度過了兩年的時光。

他的研究興趣主要集中在高效機器學習與參數生成,希望從權重空間學習的視角,探索實現更高層次智慧的有效路徑。

張揚(Atlas) Wang

Zhangyang Wang 目前是德克薩斯大學奧斯丁分校錢德拉家族電氣與計算機工程系的終身副教授,並榮膺坦普爾頓基金會第 7 號捐贈教席。

他同時也是該校計算機科學系以及奧登研究所計算科學、工程與數學專案的核心教員。

他於 2016 年獲伊利諾伊大學厄巴納-香檳分校電氣與計算機工程博士學位,師從計算機視覺泰鬥黃煦濤(Thomas S.Huang)教授; 並於 2012 年獲中國科學技術大學電子工程與資訊科學學士學位。

他的研究興趣主要聚焦於為生成式 AI 與神經符號 AI 定堅實的理論與演算法基礎。

核心目標是創建結構化、模組化的模型表示:1)在過參數化模型空間中實現高效、魯棒的學習; 2)與符號知識及推理進行無縫連接。

王凱

Kai Wang 目前是新加坡國立大學 HPC-AI 實驗室的研究員,接受尤洋教授的指導。

此前,他在新加坡國立大學獲得數據科學與機器學習博士學位,在中國科學院深圳先進技術研究院獲得計算機技術碩士學位,在北京師範大學珠海校區獲得學士學位。

他的研究方向聚焦於參數生成與高效機器學習,尤其注重通過探索簡潔的基線方法,來深入洞察深度學習的內在機理。

參考資料:

https://jerryliang24.github.io/DnD/ 

本文來自微信公眾號 “新智元”,作者:新智元,36 氪經授權發佈。

+1
56

好文章,需要你的鼓勵

參與評論
評論千萬條,友善第一條
后參與討論
提交評論0/1000
36氪
36氪

企服圈子

軟體選型經驗交流社區
36氪企服點評訂閱號
36氪企服點評服務號

企服軟體推薦

找軟體,先查用戶評分榜 查看
顧問1對1推薦軟體免費服務 體驗

下一篇

史上最高種子輪花落 AI:20 億美元斷檔領先,蘋果 Meta 搶著都投不進,紮克伯格轉頭挖聯創也遭拒要做面向企業的強化學習

2025-06-25

36 氪 APP讓一部分人先看到未來
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业