📊 Gate Wallet BountyDrop 上的 Mantle 生態月正在火熱進行中!
目前進展:
🔹 MOMO.FUN – 5,573 位參與者
🔹 Symbiosis – 2,406
🔹 HyperPlay – 1,914
🔹 Vertex – 800
💰 總計 $12,000 的 $MNT 獎勵等你來瓜分!
距離活動結束還有 25 天——不要錯過:
https://gateio.onelink.me/DmA6/web3
#GateWallet # #GateBountyDrop# #Mantle # #Airdrop # #Web3#
論文插圖也能自動生成了,用到了擴散模型,還被ICLR接收
編輯:杜偉、梓文
生成式AI 已經風靡了人工智能社區,無論是個人還是企業,都開始熱衷於創建相關的模態轉換應用,比如文生圖、文生視頻、文生音樂等等。
最近呢,來自ServiceNow Research、LIVIA 等科研機構的幾位研究者嘗試基於文本描述生成論文中的圖表。為此,他們提出了一種FigGen 的新方法,相關論文還被ICLR 2023 收錄為了Tiny Paper。
也許有人會問了,生成論文中的圖表有什麼難的呢?這樣做對於科研又有哪些幫助呢?
科研圖表生成有助於以簡潔易懂的方式傳播研究結果,而自動生成圖表可以為研究者帶來很多優勢,比如節省時間和精力,不用花大力氣從頭開始設計圖表。此外設計出具有視覺吸引力且易理解的圖表能使更多的人訪問論文。
然而生成圖表也面臨一些挑戰,它需要表示框、箭頭、文本等離散組件之間的複雜關係。與生成自然圖像不同,論文圖表中的概念可能有不同的表示形式,需要細粒度的理解,例如生成一個神經網絡圖會涉及到高方差的不適定問題。
因此,本文研究者在一個論文圖表對數據集上訓練了一個生成式模型,捕獲圖表組件與論文中對應文本之間的關係。這就需要處理不同長度和高技術性文本描述、不同圖表樣式、圖像長寬比以及文本渲染字體、大小和方向問題。
在具體實現過程中,研究者受到了最近文本到圖像成果的啟發,利用擴散模型來生成圖表,提出了一種從文本描述生成科研圖表的潛在擴散模型——FigGen。
這個擴散模型有哪些獨到之處呢?我們接著往下看細節。
模型與方法
研究者從頭開始訓練了一個潛在擴散模型。
首先學習一個圖像自動編碼器,用來將圖像映射為壓縮的潛在表示。圖像編碼器使用KL 損失和OCR 感知損失。調節所用的文本編碼器在該擴散模型的訓練中端到端進行學習。下表3 為圖像自動編碼器架構的詳細參數。
然後,該擴散模型直接在潛在空間中進行交互,執行數據損壞的前向調度,同時學習利用時間和文本條件去噪U-Net 來恢復該過程。
首先是圖像編碼器。第一階段,圖像自動編碼器學習一個從像素空間到壓縮潛在表示的映射,使擴散模型訓練更快。圖像編碼器還需要學習將潛在圖像映射回像素空間,同時不丟失圖表重要細節(如文本渲染質量)。
為此,研究者定義了一個具有瓶頸的捲積編解碼器,在因子f=8 時對圖像進行下採樣。編碼器經過訓練可以最小化具有高斯分佈的KL 損失、VGG 感知損失和OCR 感知損失。
其次是文本編碼器。研究者發現通用文本編碼器不太適合生成圖表任務。因此他們定義了一個在擴散過程中從頭開始訓練的Bert transformer,其中使用大小為512 的嵌入通道,這也是調節U-Net 的跨注意力層的嵌入大小。研究者還探索了不同設置下(8、32 和128)的transformer 層數量的變化。
最後是潛在擴散模型。下表2 展示了U-Net 的網絡架構。研究者在感知上等效的圖像潛在表示中執行擴散過程,其中該圖像的輸入大小被壓縮到了64x64x4,使擴散模型更快。他們定義了1,000 個擴散步驟和線性噪聲調度。
為了訓練圖像自動編碼器,研究者使用了一個Adam 優化器,它的有效批大小為4 個樣本、學習率為4.5e−6,期間使用了4 個12GB 的英偉達V100 顯卡。為了實現訓練穩定性,他們在50k 次迭代中warmup 模型,而不使用判別器。
對於訓練潛在擴散模型,研究者也使用Adam 優化器,它的有效批大小為32,學習率為1e−4。在Paper2Fig100k 數據集上訓練該模型時,他們用到了8 塊80GB 的英偉達A100 顯卡。
實驗結果
在生成過程中,研究者採用了具有200 步的DDIM 採樣器,並且為每個模型生成了12,000 個樣本來計算FID, IS, KID 以及OCR-SIM1。穩重使用無分類器指導(CFG)來測試超調節。
下表1 展示了不同文本編碼器的結果。可見,大型文本編碼器產生了最好的定性結果,並且可以通過增加CFG 的規模來改進條件生成。雖然定性樣本沒有足夠的質量來解決問題,但FigGen 已經掌握了文本和圖像之間的關係。