ICLR 2019今天在官網公布了最佳論文獎!兩篇最佳論文分別來自Mila/加拿大蒙特利爾大學、微軟蒙特利爾研究院和MIT CSAIL,主題分別集中在NLP深度學習模型和神經網絡壓縮。
今天,ICLR 2019在官網公布了最佳論文獎!
兩篇最佳論文分別來自Mila/加拿大蒙特利爾大學、微軟蒙特利爾研究院和MITCSAIL,主題分別集中在NLP深度學習模型和神經網絡壓縮。
ICLR 是深度學習領域的頂級會議,素有深度學習頂會 “無冕之王” 之稱。今年的 ICLR 大會從5月6日到5月9日在美國新奧爾良市舉行。
今年 ICLR 共接收 1578 篇投稿,相較去年 981 篇有了很大的增加,錄用結果如下:1.5% 錄用為 oral 論文(24 篇)、30.2% 錄用為 poster 論文(476 篇),58% 論文被拒(918 篇)、610% 撤回(160 篇)。
與往年一樣,ICLR 2019采用公開評審制度,所有論文會匿名公開在 open review 網站上,接受同行們的匿名評分和提問。
今年論文平均打分是 5.15
關鍵詞排序前 50
接下來,新智元帶來兩篇最佳論文的解讀:
最佳論文1:有序神經元:將樹結構集成到循環神經網絡
標題:Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks
《有序神經元:將樹結構集成到循環神經網絡》
作者:Yikang Shen,Shawn Tan,Alessandro Sordoni,Aaron Courville
作者機構:Mila/加拿大蒙特利爾大學、微軟蒙特利爾研究院
論文地址:https://openreview.net/forum?id=B1l6qiR5F7
摘要:
自然語言是一種分層結構:較小的單元(例如短語)嵌套在較大的單元(例如子句)中。當較大的成分結束時,嵌套在其中的所有較小單元也必須結束。雖然標準的LSTM架構允許不同的神經元在不同的時間尺度上跟蹤信息,但它并沒有明確地偏向于對成分層次結構建模。
本文提出通過對神經元進行排序來增加這種歸納偏差;一個主輸入和遺忘門的向量確保當一個給定的神經元被更新時,按照順序跟隨它的所有神經元也被更新。所提出的新循環結構稱為有序神經元LSTM (ordered neurons LSTM, ON-LSTM),在語言建模、無監督句法分析、目標語法評估和邏輯推理四個不同的任務上都取得了良好的性能。
關鍵詞:深度學習,自然語言處理,遞歸神經網絡,語言建模
一句話概括:本文提出一種新的歸納偏置,將樹結構集成到循環神經網絡中。
從實用的角度看,將樹結構集成到神經網絡語言模型中有以下幾個重要原因:
深度神經網絡的一個關鍵特征是獲得抽象層次不斷增加的分層表示;
建模語言的組成效應,并為梯度反向傳播提供快捷方式,以幫助解決長期依賴問題;
通過更好的歸納偏置改進泛化,同時能夠減少對大量訓練數據的需求。
圖1:由模型推斷的二進制解析樹(左)及其對應的round-truth(右)。
問題是:具有對學習這種潛在樹結構的歸納偏置的架構能否獲得更好的語言模型?
在這篇論文中,我們提出有序神經元(ordered neurons),這是一種面向循環神經網絡的新型歸納偏置。這種歸納偏置增強了存儲在每個神經元中的信息的生命周期的分化:高級神經元存儲長期信息,這些信息通過大量步驟保存,而低級神經元存儲短期信息,這些信息可以很快被遺忘。
為了避免高級和低級神經元之間的固定劃分,我們提出一種新的激活函數——cumulative softmax,或稱為cumax(),用于主動分配神經元來存儲長/短期信息。
基于cumax()和LSTM架構,我們設計了一個新的模型ON-LSTM,該模型偏向于執行類似樹的組合操作。
ON-LSTM模型在語言建模、無監督成分句法分析、目標句法評估和邏輯推理四項任務上都取得了良好的性能。對無監督成分句法分析的結果表明,所提出的歸納偏置比以前模型更符合人類專家提出的語法原則。實驗還表明,在需要捕獲長期依賴關系的任務中,ON-LSTM模型的性能優于標準LSTM模型。
有序神經元
圖2:一個成分解析樹和ON-LSTM的隱藏狀態之間的對應關系
ON-LSTM
ON-LSTM模型與標準LSTM的架構類似:
與LSTM的不同之處在于,這里用了一個新函數替換cell state的?update?函數。
實驗
語言建模
表1:Penn Treebank語言建模任務驗證集和測試集上的單模型困惑度。
如表1所示,ON-LSTM模型在共享相同的層數、嵌入維數和隱藏狀態單元的情況下,比標準的LSTM性能更好。值得注意的是,我們可以在不添加skip connection或顯著增加參數數量的情況下提高LSTM模型的性能。
無監督成分句法分析(ConstituencyParsing)
表2:在full WSJ10和WSJ test兩個數據集上評估的成分句法分析結果
目標句法評估
表3:ON-LSTM和LSTM在每個測試用例中的總體精度
表3顯示,ON-LSTM在長期依賴情況下表現更好,而基線LSTM在短期依賴情況下表現更好。不過,ON-LSTM在驗證集上實現了更好的困惑度。
邏輯推理
圖3:模型的測試準確性,在邏輯數據的短序列(≤6)上訓練。
圖3顯示了ON-LSTM和標準LSTM在邏輯推理任務上的性能。
最佳論文2:彩票假設
標題:The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks
《彩票假設:尋找稀疏的、可訓練的神經網絡》
作者:Jonathan Frankle,Michael Carbin
作者機構:MIT CSAIL
論文地址:https://openreview.net/forum?id=rJl-b3RcF7
摘要:
神經網絡剪枝技術可以在不影響精度的前提下,將訓練網絡的參數數量減少90%以上,降低存儲需求并提高推理的計算性能。然而,當前的經驗是,剪枝產生的稀疏架構從一開始就很難訓練,這同樣可以提高訓練性能。
我們發現,一種標準的剪枝技術可以自然地揭示子網絡,這些子網絡的初始化使它們能夠有效地進行訓練。基于這些結果,我們提出了“彩票假設”(lottery ticket hypothesis):包含子網絡(“中獎彩票”,winning tickets)的密集、隨機初始化的前饋網絡,這些子網絡在單獨訓練時,經過類似次數的迭代達到與原始網絡相當的測試精度。我們找到的“中獎彩票”中了初始化彩票:它們的連接具有初始權重,這使得訓練特別有效。
我們提出一個算法來確定中獎彩票,并激進型了一系列實驗來支持彩票假說以及這些偶然初始化的重要性。我們發現,MNIST和CIFAR10的中獎彩票的規模始終比幾個全連接架構和卷積前饋架構小10-20%。超過這個規模的話,我們發現中獎彩票比原來的網絡學習速度更快,達到了更高的測試精度。
關鍵詞:神經網絡,稀疏性,剪枝,壓縮,性能,架構搜索
一句話概括:可以在訓練后剪枝權重的前饋神經網絡,也可以在訓練前剪枝相同的權重。
本文證明了,始終存在較小的子網絡,它們從一開始就進行訓練,學習速度至少與較大的子網絡一樣快,同時能達到類似的測試精度。
圖1:早期停止發生的迭代(左邊)和用于MNIST的Lenet架構以及用于CIFAR10的conv2、conv4和conv6架構的迭代(右邊)的測試精度。虛線是隨機抽樣的稀疏網絡。實線是中獎彩票。
圖1中的實線顯示了我們找到的網絡,即winning tickets。
論文提出了幾個新概念,首先是“彩票假設”(The Lottery Ticket Hypothesis)。
彩票假設:將一個復雜網絡的所有參數當作一個獎池,獎池中存在一組子參數所對應的子網絡(代表中獎號碼,文中的wining ticket),單獨訓練該子網絡,可以達到原始網絡的測試精度。
那么怎樣找到中獎彩票呢?
確定中獎彩票:通過訓練一個網絡并修剪它的最小量級權重來確定中獎彩票。其余未修剪的連接構成了中獎彩票的架構。
具體來說,有以下4步:
隨機初始化一個復雜神經網絡
訓練復雜網絡j次,得到網絡參數
對模型按p%進行修剪,得到一個mask m;將
對留下來的模型,重新用
圖2:本文測試的架構
本文的貢獻
我們證明剪枝可以揭示可訓練的子網絡,這些子網絡達到了與原始網絡相當的測試精度;
我們證明剪枝發現的中獎彩票比原始網絡學習更快,同時具有更高的測試精度和更好的泛化能力。
我們提出“彩票假設”,作為神經網絡組成的新視角,可以解釋這些發現。
應用
本文對彩票假設進行了實證研究。既然我們已經證明了中獎彩票的存在,我們希望利用這一知識:
提高訓練性能。由于中獎彩票可以從一開始就單獨進行訓練,我們希望能夠設計出能夠搜索中獎彩票并盡早進行修剪的訓練方案。
設計更好的網絡。中獎彩票揭示了稀疏架構和特別擅長學習的初始化的組合。我們可以從中獲得靈感,設計有助于學習的新架構和初始化方案。我們甚至可以把為一項任務發現的中獎彩票遷移到更多其他任務。
提高對神經網絡的理論理解。我們可以研究為什么隨機初始化的前饋網絡似乎包含中獎彩票,以及增加對優化和泛化的理論理解。
-
神經網絡
+關注
關注
42文章
4771瀏覽量
100720 -
論文
+關注
關注
1文章
103瀏覽量
14956 -
深度學習
+關注
關注
73文章
5500瀏覽量
121117
原文標題:ICLR 2019最佳論文揭曉!NLP深度學習、神經網絡壓縮成焦點
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論